|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 / Z" O# @& @. T. b; q7 ^9 o
7 ?$ m2 E- z- ^% e/ ^& w' U借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。( U- ? T3 Q& B2 _- J$ j+ y/ L6 m
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。: _1 H) q- N& p6 a8 ^ G4 ?
----------------------------------------0 j6 K+ Y. F0 s2 P; L% e
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
9 n6 B0 ]5 e0 c3 {6 n' T在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
\ E0 z* n0 ~( r* d/ h% S, W9 h----------------------------------------9 o9 t) a/ w) S: O, r
https://github.com/guillaumekln/faster-whisper4 a: H' l% A: G: b; ]5 d
安装如下:
+ F, J, e' P) [ i/ X1, Windows 101 J; }6 e0 Y; U# c; R# g9 s
2, Python 3.10.11 o; x/ F! Z7 o1 ?
3, CUDA 12.1
, e/ n n3 l1 ^. z3 t4, 在python 3 中安装0 p+ p7 @* k% C/ p d
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
& \. k2 n3 \7 x& @这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
3 K2 i! ^8 r4 y4 ^5,pip install -U openai-whisper& Q" B) o6 n' B9 Y0 ?4 E1 f
这是向whisper 致敬,可以不装
. m% n. @+ _$ w% H4 C) w6,pip install faster-whisper
8 n4 Z0 X, \( T* u0 U$ m7 f----------------------------------------
6 y5 _9 ]) m& [. T3 h2 ^whisper 我用的命令行,faster-whisper 我用的是python。# |/ g2 m/ q$ t/ Q$ B* x- K
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
2 M, ^/ M; }+ {* h: E3 Q2 P0 y7 E) J# o" C) e9 G* C
----------------------------------------
i d/ i% T, C: s, Z Z* N& [7 p, M: Q8 A* o8 O
from faster_whisper import WhisperModel& }, |: ]& B, X( T* ^% U% b
7 v$ p/ D e/ Q. l0 |
model_size = "small"
3 q$ l/ z% f F+ {8 T5 w
7 y: u" ~! w! H3 A! h0 E& jmodel = WhisperModel(model_size, device="cuda", compute_type="int8")5 X) x* M1 e. g0 }/ d; d/ h
6 z S$ M% }3 j5 I' m
segments, info = model.transcribe(
7 D% q: m6 A J8 ?( D7 w; g sourceFileName,
$ d! ]7 V! u' x& j0 a beam_size=5,
5 t- z R0 w" ~6 | language="en",
+ a( ~8 w8 X* b) a) K* z task="transcribe", 5 ?) F" T9 X4 T+ T
word_timestamps=True, 3 G0 _. u2 D0 q1 k6 M+ I0 ~
initial_prompt = "Hello, welcome to my lecture.")2 C/ } F1 T% S+ a$ ?# A& Q2 X8 V
& V' l8 G/ l4 H9 d i
for segment in segments:! R& n( |0 T8 M# q. i1 J
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))/ \- x4 N- E/ _, ?, `
! Z4 y3 V, j0 I* D6 T for word in segment.words:& e8 o8 X! d0 O, V. f
$ C5 v1 g# {, E" V; h+ ~
----------------------------------------
2 d% V( w6 s: S' h3 r# S9 x/ n2 @% `( Y7 E
代码说明:& e' \& d: j; A
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
1 |, P6 ?3 n' Z" u但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。* U& R; T4 P" C( Z4 r; R
2,segment 本身是很粗糙的,做字幕勉强能用。9 r% e+ L9 W: I2 ]& x g Z8 O6 x/ N
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
q) ]1 r: k$ O% r2 D+ \6 x$ f4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
4 D- e3 o4 w/ W7 ]比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。/ ]9 G1 m4 {% F- o4 m
5,model.transcribe 中参数说明:
0 K- _( _& d) v' @你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
4 {' A1 \4 s' u其中2 S: }+ y8 E' E8 h0 B
word_timestamps=True,
4 c. h% T, D* \保证了你能拿到 word,否则是拿不到的
: u; ]6 ?8 \6 O6 T initial_prompt = "Hello, welcome to my lecture.")
9 O9 D" j2 Q J- i保证能尽可能准确的断句 punctuation,但是不是决定性的。
3 U: x6 d, T8 g! q' }0 `, Y其他参数可参考源文件:# m! ^) z9 V2 x. b
https://github.com/guillaumekln/ ... isper/transcribe.py
7 {6 K% h% r6 @6 ]6 n) [+ y: L# t152 def transcribe(
- g3 J0 e, U; l. i2 ^2 Z从源文件你可以看到是支持中文的句号断句的。
% B9 D" m, A! \6 e/ Z% e, w5 _2 L1 F' j' Q" X
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
e. R, V) K( F7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。: t$ P$ R# P6 V3 A0 @6 P9 }
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
$ \+ m1 @( V( W+ m5 P5 \
0 n9 I) d# R( n % w0 U( q6 ^- |! M9 N
+ R* u2 T$ r) w( s3 R* k5 ^
|
评分
-
查看全部评分
|