|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 % ?* F' a* E* {/ [6 w
! ^9 Q1 Q" S6 V' F( s9 i& @借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。+ S( m0 o' Z+ ^) @
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。 j# l* o, F, n1 }8 _
----------------------------------------
3 R Z# g' ^. I5 r显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。) Q* u$ e/ @) @
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。3 b! ?0 n1 ^' J/ T! ~$ Z! J
----------------------------------------
# M y, V8 [/ J: P( R0 shttps://github.com/guillaumekln/faster-whisper
2 ~* j1 f# S) F: K' X, b: g" w安装如下:
4 M# H y$ R9 c$ q1 ?" D7 Z; J1, Windows 10$ O* P7 t8 b: U% M2 K
2, Python 3.10.11* T# }) J* c. T4 K( M8 ^( K
3, CUDA 12.1
/ C. ^! {1 c$ a: q# H4, 在python 3 中安装 ]* [5 c! `* z. F: a5 `7 O" ?
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
6 h$ v4 F. i, p6 s a3 o& X这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
0 C l# Y4 H* b+ X8 a5 x9 P5,pip install -U openai-whisper" n/ q1 ^, O8 l3 K+ |# X
这是向whisper 致敬,可以不装
5 t; r7 G0 W' G/ d4 A6,pip install faster-whisper
: }7 a" K: z7 l$ n2 X e7 `3 e----------------------------------------( r3 c' m, F( _- F5 |3 F+ u" u
whisper 我用的命令行,faster-whisper 我用的是python。
" L/ C+ z1 y! d C. t下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
. X- f8 M7 Q* g7 \% e7 r( o' J7 p7 j! I' P/ g
----------------------------------------
1 }- h3 A5 i; d
6 @/ o: W U2 \# |from faster_whisper import WhisperModel
* a% w% k" ^& y4 ]/ `/ D& ^9 @4 F3 i, Q# E8 N% _# p% B0 D! `/ r
model_size = "small"
: G% \7 Q* A: q0 g/ n1 t. q' H* O9 u7 R* P( m$ j- r
model = WhisperModel(model_size, device="cuda", compute_type="int8"); V: [# f; q# {8 d: |. D- R
. C2 {, v* e; n; a- u" p
segments, info = model.transcribe(0 V3 E1 S0 ?. @, `# a
sourceFileName,
) Q- t% C$ B- x* K+ q% M6 M beam_size=5, 1 G' L: {% V" _
language="en", ' H+ }$ W z5 O9 H) W
task="transcribe",
; R) V) V; ^9 C O; r' p word_timestamps=True, 9 O, L+ d& c* v/ Z8 s; Y
initial_prompt = "Hello, welcome to my lecture.")2 b# j3 `1 O: m7 e+ I
+ z% S; [1 p5 ]! @# m3 C( }. K9 r" ufor segment in segments:; m2 |0 A/ V8 Z5 }1 a
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))/ R' q$ i2 p* m
+ K$ {2 C5 b4 S, E for word in segment.words:
. \3 \3 V+ J* s, o0 E
- p$ y3 O3 i; X# Z+ ^, Y% p----------------------------------------( p" m* g( W" y S
4 i2 I& g+ _- B- N/ z. D
代码说明:9 `8 L$ O$ r" v: }: N! \. K% s
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。% T0 K: w9 l+ ?1 M) S- R T
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
6 I" G4 U( U3 h2,segment 本身是很粗糙的,做字幕勉强能用。
( K; m1 ~2 s. k1 ]% E3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
2 p! K- r' L% b. _0 a2 D4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中/ l! |) o. G8 Q3 @
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。6 v: s1 ^- |( a6 M' `% \5 h- Y1 m
5,model.transcribe 中参数说明:/ S% }7 r# H+ g( M* T0 T( @7 `
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
Z$ ?6 p/ A. m& a: G其中/ F6 A6 g* Z: C1 r) \4 f. C6 S: }
word_timestamps=True, ( B' p1 ^0 U+ E3 w) ]) N
保证了你能拿到 word,否则是拿不到的
0 |- l1 a G; B/ F initial_prompt = "Hello, welcome to my lecture.")# ]+ l# f( t4 b' j
保证能尽可能准确的断句 punctuation,但是不是决定性的。- f9 J) k+ c$ V5 ` |+ z% Y
其他参数可参考源文件:) S- M, d3 t% i/ q. ?
https://github.com/guillaumekln/ ... isper/transcribe.py
! {) l7 a4 t' z4 U: \152 def transcribe(- I) l/ C; L- V; p# B* W
从源文件你可以看到是支持中文的句号断句的。6 ^% l; T2 Q) b
& k. T; _9 B6 j6 ]2 R/ k
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
. G! s$ |2 r2 ?& u7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
' E$ m! j' M& O( i1 z! c, y# R8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
" e2 M# l2 V% l! w6 L2 M3 m' S4 B* Z3 _* G
3 t6 k4 |6 Y7 o( I/ V# a8 J7 h' z
|
评分
-
查看全部评分
|