|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
2 h4 W8 P: b# k8 C% }* a& w) f, i- ^3 F
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
+ {! p$ {" O/ G! F效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。5 i/ l! @ w/ ~
----------------------------------------; V. ^% ~9 W! z. d5 @$ z
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
. |8 S: U% b% \! [4 d9 t在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
5 B1 w' s, v7 v2 X1 z----------------------------------------
& N I1 u* x9 z3 [% |https://github.com/guillaumekln/faster-whisper
; d- }/ ]# h. h$ I安装如下:% [8 y k9 Q# [$ {$ W
1, Windows 10
& Q0 G0 j9 x! }" ^% N- R2 C4 h2, Python 3.10.11% Z# w g9 ^! b9 g+ W: c3 ]
3, CUDA 12.1
/ |/ C5 M1 {# b4, 在python 3 中安装! K( ]; v+ J' b7 e
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
7 |& }9 n2 ]$ ?: g这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。- G" V/ J; `2 w! J w& i4 A
5,pip install -U openai-whisper
' b5 d; V9 J+ Q6 ^' y" J7 x这是向whisper 致敬,可以不装! B( a. j2 \; i4 t t
6,pip install faster-whisper
( p7 Q. V/ F: L, F( f ~/ Q----------------------------------------+ n" k2 [" Z% i9 h
whisper 我用的命令行,faster-whisper 我用的是python。
, H+ f$ a$ o' `3 H下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:8 y! D& q# S' P0 f
* V) T2 Q4 w9 z& ~5 B% |$ }0 j, n( N0 D+ J
----------------------------------------
' s8 Y4 M- J* G$ m
$ M% y$ E Z; | ~3 W6 d6 ofrom faster_whisper import WhisperModel
9 R* C* [3 k/ A3 c0 |7 D3 v
, W+ o! Q; [6 H( r; Xmodel_size = "small"
, r4 w/ L4 I$ h# G+ F# H5 Q4 a' A O8 X
model = WhisperModel(model_size, device="cuda", compute_type="int8")
' }: A6 j% _6 c3 z# e* q
, l" O2 V# J4 r1 asegments, info = model.transcribe(
$ g2 e. Q. S" A1 ]; R) J, i5 ^# V sourceFileName,
- f/ ^4 Z( Z. \9 e8 F; z3 H beam_size=5,
# m& S o$ n$ n+ E language="en",
4 L- n1 k* v. t2 l Q2 I, U/ F. A task="transcribe", & M) s, p5 `# ?; O4 ~
word_timestamps=True, $ r9 A. C Y0 v
initial_prompt = "Hello, welcome to my lecture.")* ^. c3 N% J2 W" X; u2 v
, H% n- u$ n& N
for segment in segments:
3 r4 p2 g3 f6 e4 p9 r5 P6 D7 h print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))7 T9 t$ V; c9 l
, ]4 T ~- q% I y/ \; ]$ W for word in segment.words:" h/ y, W- i: w( m/ c+ N# z$ B
. d3 o9 h `1 Y+ L5 {
----------------------------------------" S0 H' M! B' t; U- `+ w/ i
6 @3 E9 A7 D5 {5 X/ x$ D6 w代码说明:
8 } X, H. B% w8 B/ G1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
* _' \7 M: X7 d+ _' M1 t: g但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。8 U2 ~" d: e1 q8 o" t$ R4 \
2,segment 本身是很粗糙的,做字幕勉强能用。
) ], \# l4 i7 [0 m n( \3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
z9 Y/ s* z6 ^2 j9 C4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
9 Z7 e6 n; |2 V; _2 X1 Q比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。& i. m/ @1 i" ^6 a7 l( }" x
5,model.transcribe 中参数说明:, a3 _) n" y. |( _+ ?) M/ Y
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数! u4 X4 m, t3 O, ~/ D
其中* q0 U1 S& A5 p! a# W
word_timestamps=True,
9 i7 e: l. P% S+ }" B0 ~保证了你能拿到 word,否则是拿不到的
9 _0 L5 P* a' \ initial_prompt = "Hello, welcome to my lecture.")
0 v0 m$ W9 J. r, ~6 m: D0 p0 Q2 I0 c保证能尽可能准确的断句 punctuation,但是不是决定性的。
: f- o8 ^5 }! `9 L% G6 C# N% l其他参数可参考源文件:1 E) T0 j. ^- s. R- D0 x/ J2 p$ m
https://github.com/guillaumekln/ ... isper/transcribe.py s0 p3 g9 Z, u$ S0 g
152 def transcribe(
0 N7 R, _" j4 G5 {$ q& t' k+ K从源文件你可以看到是支持中文的句号断句的。- u7 e. r& W( y, X
9 j# o5 B& T9 p1 {
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。& A/ Y; u, u* n; |
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。3 G+ S: Z. w! ~! }% {+ R
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
; |7 S+ A" c! M1 B, ?9 X: p' d5 P6 W! E5 _% T. E4 g3 S$ x7 p
" d2 Q& [0 H' a: c4 D
. D) j6 a# _8 n3 D
|
评分
-
查看全部评分
|