|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
e+ d6 h. |2 c& f p m9 r# Q- t( f0 ^/ k" r" z$ I
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
) \/ z" ?7 c% n- w7 c效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
$ Q9 s% p8 {2 B( S, f) `----------------------------------------5 g3 s. J8 e/ I. S% y) u
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
9 T) }; g' }1 }- Y& R, B3 P Y4 X在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
p5 e* n; O$ t( X- {: K, Y* M----------------------------------------4 a" B& N! g2 j6 y! o6 \% L
https://github.com/guillaumekln/faster-whisper
% k- z I6 ~7 @7 L6 c" |3 M安装如下:2 e% I8 y# g$ @& c! B5 W& @
1, Windows 10' w9 K4 S9 S; v* I, l) P- I
2, Python 3.10.113 v; x4 W, c: i
3, CUDA 12.1
" H3 |. q$ H3 X4, 在python 3 中安装
+ |7 `% i$ n3 h. D0 [ K: kpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
) [; l5 `7 P" r) ^+ h2 ~这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
) b9 g1 o( i1 w$ x3 H2 s9 g5,pip install -U openai-whisper* ?( v/ u Y0 S( v: Z
这是向whisper 致敬,可以不装& w$ w4 G0 e4 {- W! p
6,pip install faster-whisper
$ I* n2 ]3 J* J----------------------------------------" f, j U8 R: ?- z7 [- h
whisper 我用的命令行,faster-whisper 我用的是python。; j9 u" ~& t: [+ j; L9 n$ Z
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:4 W8 T1 B: z9 J- q
& s1 R5 s) S; Z- ]6 S, p
----------------------------------------" ]& W/ t" Z# e4 u; A. F% H
0 K" K& m8 y& v+ ]0 E0 ?/ I+ Lfrom faster_whisper import WhisperModel4 w+ R0 i/ W0 Z/ C! A7 @
, w3 M% J+ g* E. ]
model_size = "small"
# `1 m+ T. `' C' W
6 z2 @; L, R* A# P% Gmodel = WhisperModel(model_size, device="cuda", compute_type="int8")
2 r2 T! t+ A; F6 `- P
3 c! r. V4 h8 ^6 u" C. I2 @segments, info = model.transcribe(
% d1 k% s, [9 S0 J5 _/ O. C/ |6 \* w sourceFileName, ) ~3 c& q7 Y+ z/ K) s- J9 ?
beam_size=5,
1 ]- A4 y% I% y- y1 q- K6 k7 j, J language="en", / ^* ?3 x5 Y$ f! [4 A1 m. d
task="transcribe", % a2 g* [, r/ p& D+ }4 A2 q( \
word_timestamps=True, 1 n# {. b( r0 s6 Q! B
initial_prompt = "Hello, welcome to my lecture.")7 b8 g [' e2 h, z, B% u$ `3 U
/ q* Y" `: y7 n4 x: Y* ?2 m$ B" G
for segment in segments:
( M5 ]2 [1 J+ g& x" q; ]! \ print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
& a) C/ X9 r+ c5 d+ m6 F6 M3 ^! i
for word in segment.words:$ T% Q% X# l+ I0 \
5 X# y% s* G' p2 ?
----------------------------------------# \ L" m7 @! q/ [" ]/ l
+ v# ^! W( z8 E+ n! v1 j
代码说明:! r6 ^6 f& b8 x8 `" g0 j1 E( e
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
5 |- A" D8 W/ H# P/ B+ y v但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。/ N2 Z, W) d- |) g2 ?
2,segment 本身是很粗糙的,做字幕勉强能用。
; j3 y: M, d. L. O# n+ ]. s: j3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
- Y% m7 m& K p O0 {4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
8 ?" T+ n9 p. v/ I比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
- r. F( p ]! r& M0 u* E8 W6 ~# F# i5,model.transcribe 中参数说明:
7 P; u. M0 O( j你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数; T% R" A' d+ n8 _ n& u
其中. M. t3 N' e0 ~' K+ A* p8 ~( W
word_timestamps=True, - G% j1 g& s) j4 \+ T- X
保证了你能拿到 word,否则是拿不到的
) X1 P9 }' L- H3 q8 I. T initial_prompt = "Hello, welcome to my lecture.")" b* I, W4 A" Z) k4 F* s
保证能尽可能准确的断句 punctuation,但是不是决定性的。- F# i% `, w7 K3 w; p! i0 y
其他参数可参考源文件:
6 R6 H9 }$ r; ?) r& m ?+ N) q3 p! ^https://github.com/guillaumekln/ ... isper/transcribe.py
" I' l, `3 B) M$ t" M. s152 def transcribe(
# m, T2 }' B+ O. p# @) _+ {0 l从源文件你可以看到是支持中文的句号断句的。
# ^0 e$ Z( A! o0 Z J5 ]
3 U& Q. c& N& S. r! }& H6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。7 q; j0 I. J( V" ~& M
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
1 L% s5 P# B5 |" k) B. L8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
) [0 r* s: Z$ Z) r4 S+ s Q5 _# o" n# H3 c! A
, T% k9 M) Y) j a6 `6 ]6 C% r# c6 E- y6 a, G4 J: h
|
评分
-
查看全部评分
|