|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 9 i& M; X5 G) F% J' o: p2 y
4 t* q! W1 v ]) a1 i
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。) w( W# O1 [/ e8 N
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。4 E& E/ z6 V' e5 z1 A
----------------------------------------6 ~0 y3 N" T' |& ?5 f
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
( O/ V4 _) \* |% ]% i在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
2 V0 b C7 g; k+ B, D----------------------------------------
5 E7 D4 F9 v* k1 lhttps://github.com/guillaumekln/faster-whisper! W5 A$ F& d/ m( R1 P
安装如下:: _; a5 J! x- R) n3 S
1, Windows 10
4 C+ Q) e$ m' s& W" e7 Y2, Python 3.10.114 E5 h, S2 q) B. D& o
3, CUDA 12.1
0 q2 P6 l" g* ^5 J, s4 c4, 在python 3 中安装' Q7 c) H4 Q5 c, F
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu1171 c: v( F- O2 T6 Y
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。 k X9 _8 Z- }: h, R8 {/ Y
5,pip install -U openai-whisper3 I( n5 k7 A' l/ v1 A! y
这是向whisper 致敬,可以不装( ?, P& f8 N4 i: J
6,pip install faster-whisper3 B! u/ i% e7 K% h7 m
----------------------------------------0 b) f; D' P8 X2 t! T8 u6 d: ^# B
whisper 我用的命令行,faster-whisper 我用的是python。. @* e' ~7 ]7 O1 h) m N
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
! d. K! D% J. z" L0 `! A+ w: S g" H. t- ^
----------------------------------------, e) j4 L( L* F
5 \; f) x7 h6 d1 {5 _7 }from faster_whisper import WhisperModel# M1 b% M7 E2 N' y2 T" a1 |4 {, {3 h
- c4 ]# R" \. P3 l2 P" o
model_size = "small"0 m( }: x' d) p b. X9 `* b
# G. u5 n- ~" K% b/ V, s* n
model = WhisperModel(model_size, device="cuda", compute_type="int8")
8 I5 l+ f8 Y/ u' V
$ I" c' [. f5 ~' j; Psegments, info = model.transcribe(, o X3 ]0 b" n
sourceFileName, ; b/ I8 W9 @& j' `- y+ t/ H
beam_size=5, ! E6 [3 [* D) ^: f' e
language="en", % p6 H& i" Q6 @
task="transcribe", ' |1 Q* n+ G6 x: G
word_timestamps=True, ! c, {+ R) U( s) P
initial_prompt = "Hello, welcome to my lecture.")
& c" c4 G& j$ W$ I' V" d3 @8 T5 {0 O
* s4 G2 r E6 W+ c/ }: d$ D. Zfor segment in segments:
- b8 F8 ~# F4 l, q9 P print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
1 {3 s; Q9 P( L# c: w
) |* p) v3 k* w K* k for word in segment.words:. \% D" u/ Z! K+ N
! M. |; ?5 E, G& J
----------------------------------------: m' w8 }, J; ]/ W5 I
1 n" M8 O, A: f
代码说明:
8 N2 x q" _# k+ K( K2 h1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。+ o/ m& n1 J( D9 _/ t
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
' n( c7 d; i! Y0 y6 t2,segment 本身是很粗糙的,做字幕勉强能用。2 D' k; R0 I8 L& K) v$ o$ X0 M
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
- Z* v( k5 x8 n' s9 n) Z& u* b& _4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
) c7 r2 D2 b& [* s$ P1 s8 H |比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
) ^( C3 _( z, y' c( H, N5,model.transcribe 中参数说明:
7 m h) F* z" f; ]' Q你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数( \2 ]8 B6 k# {9 O/ _8 k
其中
9 e; Q2 M+ g5 u' ?- U) @/ g word_timestamps=True, 8 [: L" B" D5 q% C
保证了你能拿到 word,否则是拿不到的
# k8 o8 b/ O* s9 Q initial_prompt = "Hello, welcome to my lecture.")
" v; {( _. d0 B0 w: w保证能尽可能准确的断句 punctuation,但是不是决定性的。* t. }+ [4 A2 g# n! T5 R
其他参数可参考源文件:& |6 w4 g0 J9 {8 V
https://github.com/guillaumekln/ ... isper/transcribe.py, h7 S X3 }( z, y9 I
152 def transcribe(
( \* @$ p3 q4 g1 }0 e2 v. X3 v从源文件你可以看到是支持中文的句号断句的。9 ~4 }/ ?( {* X
! m9 }/ u- j; p- f6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
: `5 n, U4 m5 h+ Y6 A" a7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。9 W% n7 W. a3 P1 q
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
$ a+ p4 @9 R) `. X s: [+ X4 A3 ~1 u% R" _! r. |
% S. p8 t) H+ K- E+ J: q! `6 g8 s1 ]
% M: ^! Z3 Y; ^* z0 h0 c- B
|
评分
-
查看全部评分
|