|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 * Z) `$ q8 D7 X1 t5 P; H& X e- E
. C# ~, i ~7 `+ i: g$ C, P
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
* F6 {6 z+ L& N1 H/ p; T效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
5 x O) I; A; d9 c) \# E `----------------------------------------
5 \, ~; B( }7 F) P. ?4 N显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
3 A( ~0 r0 b' X# Y在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
$ ~0 x# S$ ~5 p3 F/ m% J----------------------------------------
: V. `( k7 ^: U! @https://github.com/guillaumekln/faster-whisper! r( v8 g" q& Y, e j2 Q
安装如下:
6 d4 s( Q% O( ^% E: E) J1, Windows 10
; h3 M- a# P1 D- m2 m2, Python 3.10.11* N- N0 c: q E! O" l% G0 C
3, CUDA 12.1
7 F" W! i4 P0 d8 w* f* f4, 在python 3 中安装
" |$ E; D9 l) ~0 U8 \* fpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117) m( z, Z Q; M( }
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。# Q" I5 y+ ]! z- z* _4 d% g8 N: I
5,pip install -U openai-whisper9 B0 m! ~6 U( K" w% J: A, V
这是向whisper 致敬,可以不装
0 j; A2 U# J) P" A; U9 ]6,pip install faster-whisper* e2 A% H: G4 x
----------------------------------------' N0 o! Z" ?0 \5 w) ~) c0 d$ z
whisper 我用的命令行,faster-whisper 我用的是python。. `, O; y2 o" g. G/ d7 v5 |! f
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
1 }" l7 S6 k- m3 R1 a( Q1 B! z* O6 D' ?& ^7 u5 N1 T
----------------------------------------
. X8 H4 K1 i: h. Y. _* L; i& T& S. z0 B' v
from faster_whisper import WhisperModel
' |/ c# F) O: R6 f: J7 Y( q! b, ~
0 D8 O7 {9 q2 F5 F5 s& ]2 L& P; ?% Ymodel_size = "small"
/ s2 |3 X: p6 _7 s0 m- p
, K: a; `# \4 Qmodel = WhisperModel(model_size, device="cuda", compute_type="int8")
- m- k1 K7 e8 w$ n) E1 |. x2 g& [6 s8 F0 i' ?% `
segments, info = model.transcribe(
: L7 q9 r3 V+ B2 S; f6 z sourceFileName, 8 _) T% S+ }( d, l7 w* p6 R& J
beam_size=5, # P% h, Q7 n: k* p
language="en",
1 V5 b8 O! s3 L( e3 { task="transcribe", " n( ]3 J; I& d9 i/ i: [9 h
word_timestamps=True,
$ z9 ?) a( A0 W: q! C initial_prompt = "Hello, welcome to my lecture.")
% E: j" ^9 Y4 l/ x' A( Q% O2 E
/ A3 K m/ b7 \# H5 u+ @ _for segment in segments:
( g: f! J& [: y1 p/ p$ D$ L, w; p! d print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))1 ~2 e# R) t* f, p0 ?: U
( U% ^/ Q9 a; _1 @
for word in segment.words:! _, @+ c4 q0 Y( u
% n; `- P9 K% q; o4 _
----------------------------------------
' |9 s3 b. ~8 T4 D- Z( p l$ k
( s6 W" N# u8 ^% ?代码说明:
' U$ O% _) P8 k6 b+ T0 ?1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。. o2 Y4 g0 P! z1 @* @
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
+ L8 D8 j' H* E" ~2,segment 本身是很粗糙的,做字幕勉强能用。# m7 r7 ?5 t) }0 @9 d0 s ~, K
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。+ R# f, ~" B/ k5 N; r
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中" {2 R& o+ [0 C1 r& P
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。8 l0 e7 E! B8 E# t2 y; H3 |- h
5,model.transcribe 中参数说明:9 v. E4 B# l! X0 J
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
3 v% B$ r& O, o) A5 B0 |其中
( `( |. y3 ]1 s" ?% v* K# \% x word_timestamps=True, . E% }$ ?$ Q. V, q
保证了你能拿到 word,否则是拿不到的9 o5 _2 W) D' c' T/ Y/ a
initial_prompt = "Hello, welcome to my lecture.")7 a, w' {8 I1 |$ }
保证能尽可能准确的断句 punctuation,但是不是决定性的。1 [8 U& K- k5 T; A6 b/ B5 N2 E% C
其他参数可参考源文件:
9 q& H* e( V6 h0 V! p# g2 o( C6 Yhttps://github.com/guillaumekln/ ... isper/transcribe.py
+ H; q6 C7 ]5 {9 m, q152 def transcribe(
% F" m( V( N" r7 O从源文件你可以看到是支持中文的句号断句的。
7 f; N2 N2 c! Q" }/ `3 B+ c! |, {, v$ I! _1 f( K* |
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。. p5 Y; j5 o* y2 G! f3 w
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。. R; o/ Z1 B4 N- w3 F6 Y
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
7 O7 [: a, N' I* r; [9 B4 z
/ \8 B6 \+ ^, t/ F # |/ r" s. n! l. ]- W
5 K2 Y. s1 o8 v; x
|
评分
-
查看全部评分
|