|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
* H0 m. X, o# e" @6 ]+ Q3 I
3 ~! N: L; x# O7 |# J4 Q& F/ h借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。8 e$ `# c0 F8 B# M- I
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。6 M7 X# v: N Z/ }8 J# p
----------------------------------------9 l; x. I# l4 S1 W4 S
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
3 Y8 L8 Z$ f* L; _在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。5 X* K F9 F5 H9 y' T2 i) i3 c
----------------------------------------; E+ n2 O2 T! N( W0 b1 ~, f
https://github.com/guillaumekln/faster-whisper' R% R1 k9 H4 k" S
安装如下:. j! |# N' ], F" R1 l
1, Windows 10
% m1 }* ^+ W3 D6 G. |2, Python 3.10.11$ l, C0 B# r( d, r
3, CUDA 12.1
+ e( Y r9 w6 H. y% m: g4, 在python 3 中安装* C: s1 w' L8 K# h, s
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
% x; P4 Q0 b: R% `; u' y这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
. K5 o% b- ^" v+ c* {" x5,pip install -U openai-whisper
- ~. S( `2 Z6 L5 y0 W# ?这是向whisper 致敬,可以不装* c: g5 l* ~4 h: D
6,pip install faster-whisper8 n, k2 f7 s+ ~3 S y. e
----------------------------------------
! K& i" @- i2 c Twhisper 我用的命令行,faster-whisper 我用的是python。
) r8 B- R. A' `) ~$ u' G$ e0 |下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
- J5 j& N$ d3 s, j: t" d j. h* B3 F( {9 l5 G( D2 I! X
----------------------------------------
: I% z" Q+ L1 `+ d: k9 }( Z3 B; J w7 d( y5 L. ]4 c
from faster_whisper import WhisperModel5 M6 i4 Q. l( v( d3 ~
# N' m- Y+ N2 g. {! E: k+ gmodel_size = "small") j! ?1 w" V) a" b
/ G; t$ h# [; j+ k1 m6 C& Dmodel = WhisperModel(model_size, device="cuda", compute_type="int8")
/ G( N0 d( O1 w% I2 l( e2 P% O% T' @# F }/ j, u# c7 [( V
segments, info = model.transcribe(' h; a4 S9 f- m1 N5 h* H
sourceFileName, 9 k5 E' t O9 c) K
beam_size=5, 3 T, D- F; L/ {0 |' w7 l* F* ?! D
language="en",
* k6 [( a. S3 _; J$ x, V' I9 R: y! [ task="transcribe",
% o* F8 D! y% _2 O4 _ word_timestamps=True, 3 L: B G( B& R7 |6 r8 _- x
initial_prompt = "Hello, welcome to my lecture.")
6 N. p# ]% f8 W0 E7 c
3 k t" z% m8 |; f3 Ffor segment in segments:
+ E# M" V* @ C1 ^ print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text)), z% q4 p; o! _1 W- Y1 \
- i) V, {6 H/ i; [+ c/ |
for word in segment.words:
u6 S( Y; G. R+ P" ] . F- z9 @3 {$ C5 g
----------------------------------------! J1 `% V# M% Z. c
/ R, a! [1 q: l; z
代码说明:# b/ `! o0 J+ D8 x5 v& p4 R
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
0 V% i9 L, m& m4 c1 C但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
" C- R6 ~& d8 G0 F9 b9 y' M2 L2,segment 本身是很粗糙的,做字幕勉强能用。9 s' l! o2 A! U9 ]& q( g. D+ f' N8 J
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
. p& l, F" j" o: A3 W; }# j5 z" j6 N4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中% D( q9 T1 y8 i; N5 s% p, [7 }
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
! V3 i. W, \* v2 _5 S5,model.transcribe 中参数说明:! z1 [6 Y' b7 Q# @; f2 O
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数4 k2 @5 X. M2 L0 ?
其中1 s% W3 S1 M) u7 f4 J* h7 l
word_timestamps=True, ' W3 }; `1 F8 t0 K) F$ e+ _
保证了你能拿到 word,否则是拿不到的
' i I* C# G8 s: q) j* p8 O initial_prompt = "Hello, welcome to my lecture.")
2 k* @* {( J6 U; c& b7 B1 S; b; Q% Z: o保证能尽可能准确的断句 punctuation,但是不是决定性的。
6 {0 S7 I7 \/ N. k9 {其他参数可参考源文件:& P e* y& P9 D6 C
https://github.com/guillaumekln/ ... isper/transcribe.py
( S) }: ?! B, Z& B* K% X. r# \152 def transcribe(
. Z+ o. E: F, {/ J7 K从源文件你可以看到是支持中文的句号断句的。
0 R. y( @7 j+ r* H0 V9 k! C4 K
( h! U: [: Y' N6 W! `* ] E6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。# w" f4 t* x0 {) A
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。) `# V9 H2 q. z" \4 B2 z0 b
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
& U3 E$ n- s9 v- O) D# \+ Q* i( P) F Y
/ @3 n( {+ A+ Y% k& e% c
' \$ D' |3 u" c
|
评分
-
查看全部评分
|