|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 ) G( T7 \) I. C
, z. o$ F5 o7 _# \# }5 O8 |( X* \借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。% ^, k$ s5 U# o
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
% N' Y; D7 b5 M7 {0 R----------------------------------------
" p2 \6 u% J" k; C显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
+ d, J8 j% j. L0 W6 I( |在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
* g) l: @$ O. Y/ }2 o----------------------------------------
6 R( m8 Y) ^& B& d1 }https://github.com/guillaumekln/faster-whisper
. n+ Y6 i* B, |' z0 O# B, c/ x安装如下:
( y1 ~& c& j' `5 M7 y; d/ y/ v1, Windows 10. Q9 K, p* J) ~7 I7 \& k
2, Python 3.10.11% [, V# {" p2 e& h( }% t
3, CUDA 12.1
0 a; l+ `+ ]1 ?# o& V7 }- s4, 在python 3 中安装
) j+ R+ x. H: W I/ Upip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
, q8 E) y: r5 f' ^这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
& y9 A9 D. r) C. `" v1 e4 ^ |5,pip install -U openai-whisper( X. }% a: \, x) K0 ]0 y2 q( z$ j
这是向whisper 致敬,可以不装+ \1 `8 ~3 ]6 u# E9 T
6,pip install faster-whisper
+ `7 \, u' e/ Z- ]9 z* o----------------------------------------
0 @3 Q# K. z. @6 q: I- h9 N( Gwhisper 我用的命令行,faster-whisper 我用的是python。' E7 q; F9 ~" O; m4 ?9 q8 X
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
2 y8 B6 E: v3 l& ^/ W' F+ y& j
& e. j0 H# j; Q----------------------------------------. l" ~& g: ^+ s& ~. }
2 f) L2 ~: y3 j2 t
from faster_whisper import WhisperModel! v6 n" j3 k2 [4 T/ }: Y5 z+ R
" P) @9 \3 C3 u) [( W j+ jmodel_size = "small"% H8 b; W" E: \8 M
$ z6 ]- S" Q# I4 t1 w2 Amodel = WhisperModel(model_size, device="cuda", compute_type="int8")! N. E7 C' g8 p1 S/ v; w, ^$ c
% P1 ]. g7 x* c' S M* }" I. @
segments, info = model.transcribe(
) d. C) j) n# I8 I% V, Z: H sourceFileName, 8 h" N5 a2 ]/ G3 n1 G, Z
beam_size=5, ; R. J/ A. f* c+ b
language="en",
8 a2 ?6 [- v. U! @4 ? task="transcribe", , N2 i& z& I2 f9 D* B: x
word_timestamps=True, ) X$ g; p% `! [# r+ K
initial_prompt = "Hello, welcome to my lecture.")' }; S1 S) H+ d
8 R* @. `/ N& @$ H4 Mfor segment in segments:
p4 q+ z; z T) f8 [( A print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
5 g* @6 N9 }5 i4 T. s3 n1 e- O
. {0 A0 q2 o ]: g# q4 X for word in segment.words:5 F' F4 t7 b8 d, q. v1 T+ @) }
1 x9 ?. F/ Z* n+ D/ \
----------------------------------------
* \/ S0 d: g0 C2 W9 q3 b
6 ^0 g1 \; W6 k# L; O+ W$ o代码说明:0 N* u, }8 ~: n# g0 z+ G- _5 \
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
. T5 m! ?$ f) Z v但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
6 u" ?; _* P' ^1 e; s/ |( B2,segment 本身是很粗糙的,做字幕勉强能用。 ~: @2 W: x1 Z' F) }
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
+ `7 _4 N( B) p3 F" r, L$ l! G4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
+ Z4 u1 d/ s# p( V/ A. O* f% ~8 s比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。 [, V8 x6 L8 g/ L
5,model.transcribe 中参数说明:& k2 p/ ~; j$ {' _
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数& S9 A. x9 m' m+ f' x# Y
其中
4 j* y% c2 W! R2 b# C6 c* W+ [ word_timestamps=True,
& o8 V' D) D+ M7 A2 f& s7 I& G6 H保证了你能拿到 word,否则是拿不到的' H' g7 A: }5 G% o2 Q" t
initial_prompt = "Hello, welcome to my lecture.")
- u) P0 a- c2 w9 ^% a保证能尽可能准确的断句 punctuation,但是不是决定性的。
, H& N9 e3 @# i6 Q X其他参数可参考源文件:' p4 H( [6 l3 X& Z) E9 o$ Y1 y, q
https://github.com/guillaumekln/ ... isper/transcribe.py5 [( Q5 Y7 Z9 K0 _( k X) x7 x
152 def transcribe(" x% d5 c* c6 m, ]0 `* M
从源文件你可以看到是支持中文的句号断句的。0 K2 U! N4 P. M0 _) \
* h; T6 @& S" I2 W
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
- I2 r) @# v5 I5 h0 {7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。2 h. B3 V+ N9 Y1 s5 d$ }
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。/ _" Y: b' f: Y1 J0 j8 d& C
- `) H' D5 W- }- n2 J. f' ~1 ]
e/ S& l. K- _* `. C2 U" @& X. N
1 @" @) i7 _1 u: ^: @
|
评分
-
查看全部评分
|