爱吱声
标题:
faster-whisper 更快的语音到文字的识别 ASR
[打印本页]
作者:
nanimarcus
时间:
2023-6-4 02:10
标题:
faster-whisper 更快的语音到文字的识别 ASR
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
: G! z: F$ ], B/ f9 x& `( Q- x
9 Y8 Q3 C) z3 c& L2 f
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
/ r6 E- D! r7 r5 @, J e
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
# P4 `$ t$ m2 t8 L3 F) Z
----------------------------------------
, Q7 \4 R* k4 M$ E
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
& K& e& s$ f( n
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
9 O6 J# \, @' J: x l
----------------------------------------
) e6 I! S; L' x% W/ n6 W
https://github.com/guillaumekln/faster-whisper
2 N6 R- S1 Q6 c& H( g/ Q
安装如下:
5 v" z2 G0 F; |* l% H, c
1, Windows 10
4 a6 D+ y, _) Z- n, l
2, Python 3.10.11
: {2 P: W* U1 e1 R2 p2 U4 q! D* U. s, L
3, CUDA 12.1
1 K( g, [2 m$ K% H# V
4, 在python 3 中安装
" R2 D, d- s0 X- y/ b
pip install setuptools-rust torch torchvision torchaudio --extra-index-url
https://download.pytorch.org/whl/cu117
7 C: w* c& u5 ]5 ]
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
3 h3 ]6 a+ T. a
5,pip install -U openai-whisper
, p1 H d; D6 o- K% i
这是向whisper 致敬,可以不装
0 P' F4 q7 ]8 I! J+ E# ]
6,pip install faster-whisper
- A7 W6 c5 D/ l- K" p, N
----------------------------------------
3 e) |) j# | t& }* S
whisper 我用的命令行,faster-whisper 我用的是python。
8 K7 j6 s# Y' Y+ a
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
" B: k- \4 x6 {" w) K& q
( E& Q% k9 ]. W# Y7 z# c
----------------------------------------
6 ~0 G( v& s& p( r6 m9 n1 {
$ x0 c7 [4 g" X' L* L, T
from faster_whisper import WhisperModel
# p, ?" G- `+ ~$ x5 T8 x
+ Q" @( a- Z6 K9 N
model_size = "small"
/ ]- a9 M( N7 |0 x$ k* a( k: A
' K2 C( G4 X# h. Y8 H3 l" N& O
model = WhisperModel(model_size, device="cuda", compute_type="int8")
% x7 M b& d5 W3 z
/ `! N3 ?0 z3 w( R
segments, info = model.transcribe(
R [ x a9 @! b; L7 b' P
sourceFileName,
8 f( V9 K& B5 w3 @
beam_size=5,
% p! G5 k5 k" }+ U* R! y
language="en",
! m, @& w3 d; @) n9 _- u" J
task="transcribe",
8 c- X, v& R+ v* [" N. H
word_timestamps=True,
" U- A8 o6 g. F5 D& Z) \: O
initial_prompt = "Hello, welcome to my lecture.")
- ~, m1 F* W, O; X8 j6 Y0 S$ n
6 s2 T2 V9 _* E) D
for segment in segments:
( G: k7 k$ m2 m# E5 j, ]
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
# Y9 L3 @6 ]: c/ |
$ @1 f u; [4 b* x
for word in segment.words:
8 b; s; a. W3 u1 S! q8 }
+ h1 l; V5 r* v$ h2 d
----------------------------------------
$ ^9 [! x2 ?: k9 E1 N
3 M- t9 q+ ~7 m9 ?& y. ~( L
代码说明:
+ s' z; e- \! ], J2 J* d" a
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
! k) X* R- c: ~( x) r9 d
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
+ O. R, _ m5 G# n
2,segment 本身是很粗糙的,做字幕勉强能用。
z" j2 I) G" Z. R9 |9 E q! ]( {
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
; H, x7 z! t; \8 W0 I
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
6 V! b, \6 W' X
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
* {5 D# @- v8 i
5,model.transcribe 中参数说明:
! S' `# k( w3 i2 ^/ {8 n. m/ H
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
& o' e/ S/ A% O7 ?# @' N
其中
; N: H* ~. U: Q: E7 m7 i( P
word_timestamps=True,
) Q& a! k( {1 P1 i
保证了你能拿到 word,否则是拿不到的
/ f9 j; a6 Q1 H, g
initial_prompt = "Hello, welcome to my lecture.")
# Y5 w! ~8 {; i6 m, J0 s
保证能尽可能准确的断句 punctuation,但是不是决定性的。
- c. \7 }* q: [- E2 O( E
其他参数可参考源文件:
$ \. E- a6 W! G* R. D- B
https://github.com/guillaumekln/ ... isper/transcribe.py
$ k* C& j5 A* n; c
152 def transcribe(
; R; w V0 X$ u
从源文件你可以看到是支持中文的句号断句的。
# U6 s+ ]- \1 M
" a8 g) v( m" v* j- s# [ B
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
3 B$ X" p1 l2 @9 o7 R0 \; y2 j
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
5 T% U. k7 _' R# J
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
+ H0 u% r) O* g) d' k4 O5 `
+ y$ T2 u( z1 l) r% z
! P$ j! t; x- Y/ D7 x/ [. Y
1 z. e; g; I6 R/ U6 x) d5 }9 e( e% [/ O' d
作者:
nanimarcus
时间:
2023-6-4 11:53
多谢各位榜爷打赏。
欢迎光临 爱吱声 (http://aswetalk.net/bbs/)
Powered by Discuz! X3.2