|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
$ S) L+ V+ [& m2 B
/ K8 C* A! \/ p9 O7 Y借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。& E0 I9 D0 E0 [- P0 B
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
) \9 r/ N" B; u9 R" z6 e----------------------------------------
5 |- z# Z8 i, e显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。7 {& g9 h$ _" l0 w/ Q
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
r( G0 F1 Z4 Z----------------------------------------3 R2 K2 b& A# e% b7 I7 w. V3 I
https://github.com/guillaumekln/faster-whisper
; ]* i! x; I9 S& j8 c/ y' Y. J: T安装如下:: @+ h7 P0 j, l% I Q
1, Windows 10
, ]+ g0 Q$ a0 C9 Z- _9 K2, Python 3.10.11, P) b0 h$ `0 D, ?1 F+ ?
3, CUDA 12.1# l0 W! n+ {7 x$ x: ]& u" L. W
4, 在python 3 中安装 h' z, t7 s. y P3 G; m& J7 I
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu1173 J! M g3 _1 d. Z- {3 N
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。. T5 f& s/ ?2 v( X
5,pip install -U openai-whisper
0 K& T# D' c9 ~% J/ V+ i这是向whisper 致敬,可以不装+ z1 S t& l+ m7 K! O: l' C
6,pip install faster-whisper
1 {+ n1 L# R% q+ U, ]----------------------------------------, m9 _0 ^& S$ H# P0 q2 ^
whisper 我用的命令行,faster-whisper 我用的是python。
% i$ B+ d, Y, Q1 r下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:( q. c3 u T. p
3 n6 A+ f& D3 {: l( V----------------------------------------+ F$ @' J! N8 i8 a
7 y$ \% e, H% f' [! _
from faster_whisper import WhisperModel
8 @3 h5 a; r; k- M0 k- M$ d6 n; `/ v+ }, o4 E+ w1 \4 V
model_size = "small"- u4 ~( M% J0 N, Z
$ e% I0 j/ E; \$ m' X$ \3 X
model = WhisperModel(model_size, device="cuda", compute_type="int8")
: X- V7 B* w9 S. Q# w0 I; c) a8 Q+ E% H5 z/ _7 u9 v" l$ o. \3 Q
segments, info = model.transcribe(
* Q9 @( b+ c3 _% ^+ K sourceFileName, 4 O5 o3 ?5 M. o; ]! U) T( }
beam_size=5, * O& j; U; Z8 A
language="en", ) i: x' U" u1 D" P0 m1 T0 [2 @: W
task="transcribe", / T) E7 Q0 T: u: x$ W0 k" e/ w Y
word_timestamps=True,
/ m# j& Y; H m# d: v# a7 v. k3 y initial_prompt = "Hello, welcome to my lecture.")9 F; Q5 {) o- M7 i# g; a
2 B: g2 T9 f$ ^+ g. T3 n7 R
for segment in segments:
) \3 f' i. X& ?, ` print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
- y+ U& ]0 ?* q* P+ i7 ^
/ Q9 T6 F* Z5 Y$ R for word in segment.words:& b- l" Q5 [ ^! G3 X
8 ?$ O$ N6 i' ~: J+ u) j5 Q# r
----------------------------------------6 Y1 o$ G0 H# h/ P" R5 j
: B" u0 v8 p; {2 w3 ~" r4 [
代码说明:6 s4 N8 m0 _! a. M3 H% w- f
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。# X+ e* h$ }. `; ]" w: s
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。2 V8 w/ }* q% P
2,segment 本身是很粗糙的,做字幕勉强能用。
% G$ b m+ s8 X5 I3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
3 W+ C* u v0 Q1 ~# h. F7 L4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中/ X% R& A% T7 T
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
4 q- ^2 n F. S4 T" v7 N# k5,model.transcribe 中参数说明: x# n5 a' G* S! `
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
2 m. Z" X1 i# ~7 R6 @7 R7 b' v其中
@0 E4 t5 ^# q7 I- f# k( A, _/ o word_timestamps=True,
- l% g! a. W* W) _7 Y保证了你能拿到 word,否则是拿不到的
! ]' g6 b* l* V" [ a5 e initial_prompt = "Hello, welcome to my lecture.")
" _/ A4 n& Q1 k0 s" B保证能尽可能准确的断句 punctuation,但是不是决定性的。! _( i+ [; X+ L' Q$ h' {
其他参数可参考源文件:
1 s/ r: ~$ h( z$ q6 M: T Mhttps://github.com/guillaumekln/ ... isper/transcribe.py9 |) K. p7 |3 b; ^
152 def transcribe(0 u! \- c) t4 F# y; C$ Z3 y( J0 [
从源文件你可以看到是支持中文的句号断句的。
1 Z( I: @* f/ y4 l* }5 n
! w. S' L3 Z9 U+ d! K6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
( c+ L% U& O: z1 c7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
: ]4 S+ d a) j8 H T7 e8 ]6 }6 x8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
& n0 B* b" A& S5 t
% E- ~$ g1 L% c1 O- q/ b: m
' F0 O1 g& ^0 J1 M- L) Z2 M3 i" {5 E4 o
|
评分
-
查看全部评分
|