|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 ) P9 \ N; h2 W. |; ^
8 K( D' @$ ~9 ], P! [$ C0 A/ Y
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
H- Y2 ^9 u6 I1 E8 ~效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。$ ]+ B7 X6 u% ~
----------------------------------------1 `' I0 f# {4 f
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
4 h; G" [2 f; R9 Y; C4 L在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
4 A; E, U. ]' D. ~+ x----------------------------------------0 G" w/ Y& }1 T: G
https://github.com/guillaumekln/faster-whisper6 r/ y I1 v; k
安装如下:
5 u) O5 j' Q( ]3 @1, Windows 10
8 o* C: F" L' D6 E& n9 i2, Python 3.10.11
$ L. R5 O/ o) z! ~' y+ s8 P2 o3, CUDA 12.1! O% s, v" Y; m0 W4 ~8 a
4, 在python 3 中安装
/ G( m' {* h; _; }" ~ @pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117/ M8 A: k$ a$ b8 q- m5 d
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。/ _2 j" R; n' B0 d) ]5 x
5,pip install -U openai-whisper
6 w: e& o' _' ]& D/ F这是向whisper 致敬,可以不装1 }; k2 t! V2 l6 M1 Q- {
6,pip install faster-whisper
! `* {+ Z# o6 l8 K& \----------------------------------------
4 j# d u9 A) V1 x0 e9 D; @+ U, ^8 Wwhisper 我用的命令行,faster-whisper 我用的是python。
! M; W0 q* r" X" E# r/ \下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码: n+ ]9 w ]* @5 T- u+ \
2 ~$ c- T% x) q3 p$ b$ \& j! c& p----------------------------------------' S, C5 I4 z" e( q2 f8 P$ h! p7 b
% P; }8 B* Y( g1 z& e5 c& a$ C3 Y0 pfrom faster_whisper import WhisperModel9 j( K: s5 x5 w' `! e; Z
3 s: E9 R( E1 r: `9 @4 ]- J3 Wmodel_size = "small"
7 U G6 a6 Q3 E( t3 F0 x& c8 i5 K8 ]; P+ A
model = WhisperModel(model_size, device="cuda", compute_type="int8")
$ A! f8 y' O# y3 {$ t+ J9 ~$ Q! o) u, H, y9 s
segments, info = model.transcribe(
" u# o) g- \) t- M$ X. h sourceFileName, - a Q; ^% V5 i8 ~8 O
beam_size=5, 6 a3 O" z" n: D) j3 Z
language="en",
% t* U) s3 W$ Q: T" I d task="transcribe",
) z+ d5 ^8 |8 X6 v$ j8 d$ ?- q8 [ word_timestamps=True,
; e, D! o8 f+ ? initial_prompt = "Hello, welcome to my lecture.")8 q3 Z/ F2 R8 A8 J$ b$ `( B, O
! _! a( t: R, C* A5 Sfor segment in segments:8 Y+ I" l' U" x& W z8 z) n+ S& z
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
2 b! [2 l+ h( j- A9 N) r4 }1 b) z6 [. f9 o4 N$ c8 V) v5 g
for word in segment.words:4 z Q: _" V, B+ r
/ B' Q3 [* E6 I4 x7 [----------------------------------------
. E7 S; `+ q- ~+ f
& K3 t- y& U$ ?9 Y& a2 ?/ m代码说明:4 z0 R- Q4 F5 `* H9 Q% y" I$ @
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
4 {) h. X0 j* A/ j但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。; ]5 |: P: G8 K' V6 }
2,segment 本身是很粗糙的,做字幕勉强能用。2 ?/ ]" |/ E E; B( Y
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
8 ~* ` L1 e- Z$ Q4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中4 t- ]% @$ Q1 S U' q
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
! p `& _7 |3 }& ^8 J% A: R5,model.transcribe 中参数说明:5 f3 ~+ a7 @; C4 {: |1 e! G
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数8 T' D/ {3 n# g3 x& U3 _
其中
1 W: w$ T* x, j; `& \) M3 t" c" n word_timestamps=True, % j% c) D: s0 z2 i5 Q# X! s
保证了你能拿到 word,否则是拿不到的
$ s0 I4 C r4 E7 m initial_prompt = "Hello, welcome to my lecture.")
4 R2 U: [# N: G9 _% H; ]3 `2 z保证能尽可能准确的断句 punctuation,但是不是决定性的。
' c; `, e7 K2 x2 L7 R其他参数可参考源文件:( L# ]/ |3 K: q' Y* k
https://github.com/guillaumekln/ ... isper/transcribe.py5 d0 e! B1 O2 c
152 def transcribe(; J0 b. O; n8 O* _9 E( _4 s3 ^! x+ ]
从源文件你可以看到是支持中文的句号断句的。; q7 w( t" c( W/ @. x/ V
7 k& M0 l- N: K" v$ d' ^* U6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
. r% S' s E# S( r7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
: ]3 `7 G$ A$ i4 |8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
, D! C/ K ^4 l# K& }3 m2 C
8 S/ @% \# B, \
6 y* J" G/ ^" N2 K/ Y% d; l) Z+ l+ Z% a I2 x8 y
|
评分
-
查看全部评分
|