爱吱声
标题:
faster-whisper 更快的语音到文字的识别 ASR
[打印本页]
作者:
nanimarcus
时间:
2023-6-4 02:10
标题:
faster-whisper 更快的语音到文字的识别 ASR
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
/ l3 F/ u, j' l
( U/ t6 S+ w2 W( M: d/ r+ W3 W
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
$ G9 O' ?& K- w; N @
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
\- U* p& v0 I9 _
----------------------------------------
2 m, n' N' u0 w [( v
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
) _' T/ @- I C6 i) {
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
% ?* D7 T1 ]) _2 J0 F4 w1 N
----------------------------------------
; l1 u. Z$ b3 Z( W& C! V: Y' K
https://github.com/guillaumekln/faster-whisper
3 X/ H2 D& B7 D5 c( [" N2 s7 q
安装如下:
$ s. ~ m; ~5 q6 N7 M
1, Windows 10
$ X: ]+ O5 H: v$ X
2, Python 3.10.11
5 \' e' V, e. U4 _
3, CUDA 12.1
, F- t3 M$ R0 q" b
4, 在python 3 中安装
" @$ d) ~7 n) `$ d" A3 z& k6 k+ B2 }
pip install setuptools-rust torch torchvision torchaudio --extra-index-url
https://download.pytorch.org/whl/cu117
2 D' v8 E, N+ q2 c9 L' _! J
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
) v E2 J/ B4 }; Z3 U+ i+ P7 X/ P
5,pip install -U openai-whisper
$ w8 Q9 W: I0 D l6 |
这是向whisper 致敬,可以不装
5 D/ |6 F8 B& _3 ~* P
6,pip install faster-whisper
9 N1 ~1 O% O9 p3 W' Y! V
----------------------------------------
, r) l$ @- A4 n
whisper 我用的命令行,faster-whisper 我用的是python。
' m' K+ N2 _. H) v/ D- s, N
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
# h& }, N' u6 }, w( a. L$ K
6 m6 q: U, y, y4 C) u, U0 n
----------------------------------------
9 K, W6 e+ ]& j3 A
1 G$ \5 f; S9 W( z0 b5 z+ g
from faster_whisper import WhisperModel
8 r g D5 f- Z; I' S7 V0 w
" Z6 [4 K/ V# m7 D( W
model_size = "small"
/ Y' n$ X2 v* T P
! z# _) k ^% r" u9 t" f
model = WhisperModel(model_size, device="cuda", compute_type="int8")
, D; A P) b! G+ }- R- w& h0 P+ J2 a
$ X- T& ]& z8 ]- g
segments, info = model.transcribe(
' e& n* H c$ o2 ]
sourceFileName,
. J% B+ Z- a, m: A
beam_size=5,
] d% F/ ?1 S: G( n1 F
language="en",
! h7 u8 P7 Z1 G
task="transcribe",
m* Q* `) w% |" d( q
word_timestamps=True,
1 V2 R1 {- i% |- {
initial_prompt = "Hello, welcome to my lecture.")
' b& r1 X R2 w1 N- ?! I5 S
/ `, C* n# i" j- {3 T
for segment in segments:
' |2 k5 f6 S2 _' V0 F& R
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
9 B4 i- j( q5 P1 R ?8 G
6 M" b' {$ {. q# R5 s
for word in segment.words:
7 G) q* |0 r0 m8 ]) f. R9 l! ~! e9 ?# t
8 s7 F, f& r) z) \/ b8 z
----------------------------------------
$ |; H% f$ ^5 e( c
+ h6 d U, [2 Y; L8 s
代码说明:
: l$ W" Q0 C3 L9 V# B/ X7 x
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
" E$ ~" g0 o. ?
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
: \. _6 h. b' _+ Z0 y
2,segment 本身是很粗糙的,做字幕勉强能用。
, j$ F6 F5 K! E& Y8 G0 D0 N; Z, S
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
: B% B7 }$ w' ?
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
6 [6 W6 |+ z! G# N
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
8 o7 ?) Z& j# T4 P7 W
5,model.transcribe 中参数说明:
% K* {& v6 z9 Q
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
6 u/ {* |! P- t; m8 v4 a
其中
3 Q" `5 |- Y* }" g
word_timestamps=True,
$ P; }# D z, I3 f& r }
保证了你能拿到 word,否则是拿不到的
" }6 U& k' u0 f' P: m6 ^8 }0 i/ C6 T
initial_prompt = "Hello, welcome to my lecture.")
& D( o3 w+ H, W' _2 n
保证能尽可能准确的断句 punctuation,但是不是决定性的。
, s/ C, X* l1 W6 p* F; s
其他参数可参考源文件:
5 y, x$ R5 v. v/ G8 V# q6 f
https://github.com/guillaumekln/ ... isper/transcribe.py
: ?# I0 \8 i0 M" X
152 def transcribe(
5 O2 d) S$ _& b# U7 ?9 v6 d% h& Z" G
从源文件你可以看到是支持中文的句号断句的。
* @5 I0 \- k( `; O0 _+ A
" m- g5 z" ~5 q
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
8 C; |6 f; h( \! F4 m& r8 l w
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
9 h, M) J5 B4 u3 H
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
$ b% @# A7 V+ N) Q$ Y( u- @
; R. u) [/ N# v
1 s8 ^6 c: T, P% e* t, g) W% F
+ V& S) m) U( e* |" M
作者:
nanimarcus
时间:
2023-6-4 11:53
多谢各位榜爷打赏。
欢迎光临 爱吱声 (http://aswetalk.net/bbs/)
Powered by Discuz! X3.2