|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
2 [8 u+ z D& j6 V" H) z& E, r! }4 }! A. y1 a
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。$ [2 ?, w# ?( y Q# O5 R* p
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
: ?0 r( ]2 Q" X W/ H----------------------------------------
& x6 v [! S7 z$ O显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。" x/ s! p1 q8 h% i& i; E: G$ g6 Z9 I2 q
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。! J& t% _+ ?8 r* { S: Q* `
----------------------------------------9 r8 k( @, f% R+ b8 y/ Q a
https://github.com/guillaumekln/faster-whisper. l& K5 m% `/ y1 p( k4 f* ~* _% y
安装如下:
2 e4 m) V8 M2 r/ l) G& j7 o- E8 f1, Windows 10
) {1 |7 H; r' x' g7 |: k1 ?2, Python 3.10.11 Y/ b/ a* H" K3 K0 a$ x
3, CUDA 12.1. G8 Y* V. Y* R2 \6 F, w0 ^
4, 在python 3 中安装 o8 R+ n. q. ~1 B0 Z t
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu1177 K, e# A+ H/ X- ~( G. Y$ n; f
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
! \1 C# \4 K! r _5,pip install -U openai-whisper
' x0 o6 x0 x$ p6 v C这是向whisper 致敬,可以不装8 N5 P0 q) J2 ]/ X5 f* O$ ^
6,pip install faster-whisper
/ z1 \) r& m0 j----------------------------------------
, E; J- N: _ E( zwhisper 我用的命令行,faster-whisper 我用的是python。' w) D" h* o* t S" c
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
! _, A. L A7 V; ~+ u4 _
. P+ m( \. Q6 x; Y4 W----------------------------------------
2 D d: o1 D; }" r9 u8 H1 j+ A: }9 E* [* _9 |* S B
from faster_whisper import WhisperModel( O/ ]! @3 K" F1 y
2 q0 ? F, a) f" G9 ]" k" Y9 pmodel_size = "small": }- r2 u0 `2 ~5 |. v8 Y
+ \ C2 x6 m* e! k
model = WhisperModel(model_size, device="cuda", compute_type="int8")
. C. X* ~# x" E3 R
9 y" o. V0 s. |) V( Xsegments, info = model.transcribe(7 u3 ~. H* E: H( {( F3 I/ ?5 O
sourceFileName,
$ }! d2 G E3 E3 c: ? beam_size=5, / c/ e, @# X& O4 a0 O' i" H& Q
language="en", 6 F: x n9 F8 d1 [- H+ T8 U
task="transcribe",
7 M& y: }$ c! Z# h# n, F word_timestamps=True,
o4 s+ S+ o2 E/ ] z( K. S5 h initial_prompt = "Hello, welcome to my lecture.")8 t! R3 z5 Z' {' ]! S9 X" |
) z# X& f( B ~5 L9 Ifor segment in segments:$ T5 w8 ~4 R! C3 {5 c3 V: {5 `+ t6 ?
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))! T5 }) G( @) j/ o" k( Z
7 V1 T1 I+ k6 ?2 v% M for word in segment.words:
! Y/ V! M: L/ [ 8 S6 P6 P/ N0 c: I" Q
----------------------------------------
) l1 y& P& {2 {2 O4 E J |% U7 ~" I" [. T
代码说明:
& U5 T5 v1 Y$ X1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。! d% {1 y6 w4 |& E9 n: S8 q& `7 u
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
- |* Z7 K. _% o3 L( _2,segment 本身是很粗糙的,做字幕勉强能用。
' ^! e4 x' Z% l/ a7 G9 z3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
/ f/ P) b" n0 [8 e1 b; O, b4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
" N+ W/ v1 f5 Z1 I* L' O I比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
`$ }5 n4 q$ F5,model.transcribe 中参数说明:1 E) s& S9 s& z6 T8 q
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
A% J6 f$ ?: o7 D其中& l/ Q( C% h; l
word_timestamps=True,
6 F& s( S9 }1 ^8 d. {! `. a保证了你能拿到 word,否则是拿不到的
( _- l' n" q9 N! I% y initial_prompt = "Hello, welcome to my lecture.") ~. j' F3 q, M: i6 ^; N
保证能尽可能准确的断句 punctuation,但是不是决定性的。
+ H# x; F% @" z) I P其他参数可参考源文件:8 S5 `) S, n5 Q% j, F
https://github.com/guillaumekln/ ... isper/transcribe.py! R. T* e+ L8 D: X9 O3 w
152 def transcribe() O8 v0 z4 M u
从源文件你可以看到是支持中文的句号断句的。
9 }( p2 `( `# i3 `: U6 O% b! z
5 T0 c0 {; t, A' j6 |6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。4 N: D: o' C" w$ n- \, G
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
! V# [. n+ [/ R7 m" g0 F) l0 O8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。9 f6 l+ T5 \& y T
" ]; x1 a" |$ S+ l2 s) ?3 p9 ] & u0 Q) M. S" A( Z8 X7 |9 L
6 L0 [$ H7 }+ Y8 s4 I) J, c/ G |
评分
-
查看全部评分
|