爱吱声

标题: faster-whisper 更快的语音到文字的识别 ASR [打印本页]

作者: nanimarcus    时间: 2023-6-4 02:10
标题: faster-whisper 更快的语音到文字的识别 ASR
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 $ g! ?$ A  {  @
: _2 S6 S; p( }3 `
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。" d% P3 v( }$ @+ O+ a0 x4 h- F
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。' x) t  f% J( B$ F' W
----------------------------------------
  R4 {1 u7 R  P" ]; k2 Y显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。" e% `" y3 ~7 a
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。4 I! L5 r* n; P+ W1 v
----------------------------------------) p  }. F8 o" Y9 l% |* T; X; D
https://github.com/guillaumekln/faster-whisper
5 v! y  W9 [8 |$ R8 M9 i1 t3 F安装如下:
$ g0 c$ _2 w; L8 ^$ G1, Windows 10, x/ l1 `& g' r/ U
2, Python 3.10.11& Y9 q, `' P& w& h: S0 S
3, CUDA 12.1
6 `7 N% h- r  X3 r. b  l4, 在python 3 中安装
- a2 D. v- d8 p, z6 xpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
* `$ W0 M$ X- z) M这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。# S" ~1 ]- L# ]8 p% E
5,pip install -U openai-whisper7 D5 j$ O* U; b  D8 I, a' h
这是向whisper 致敬,可以不装
, [) b  N- _: T( E6,pip install faster-whisper
0 q: N! F# b' d) Q' ]8 t+ z7 u% i----------------------------------------
1 J; Q( n! t4 [" v0 {whisper 我用的命令行,faster-whisper 我用的是python。
$ [/ X/ c4 ~1 y" D$ g下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
% M3 S2 N2 L% I; C( E: N
' k4 F3 `3 y' \----------------------------------------
" T4 a) H: j2 w0 r" N3 L( {8 D
' G4 ?/ b  g# v! Nfrom faster_whisper import WhisperModel* {# \5 h- ^3 ?" n
- t! P& H0 o7 Q* x2 j5 R
model_size = "small"$ Z; }0 ~& v7 {; N2 U8 l. M/ h4 a  w

* D0 K# [! J; w" Rmodel = WhisperModel(model_size, device="cuda", compute_type="int8")
& g* _! K, W, D. S0 u% g8 K/ s; m; d4 M  R" o
segments, info = model.transcribe(1 [+ B0 L8 g' E" t
    sourceFileName, 3 Y; g  K' {) J! Z/ g  y% `
    beam_size=5,
4 l, V9 }9 m' o: U  t    language="en",
9 {% b) D5 Z2 D  _0 E) H    task="transcribe",
. J% y0 ^. o. |    word_timestamps=True,
7 [# Q: w9 G9 b3 _; H) Q- Y    initial_prompt = "Hello, welcome to my lecture.")
3 U# e$ {. _, `8 J8 Q) ^4 {& A! j3 n1 M( A
for segment in segments:! N8 E) Y5 j1 |% _% r  n4 Z
    print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
' A6 b0 B% U7 \
5 W" r' x- o: R( o, P+ {        for word in segment.words:! b8 K5 f. z9 ?. @0 L
               
) s- m- \( r5 q6 z# |----------------------------------------3 S, G. y; m7 F6 b8 v
5 M. [0 u- a, O' L# o' L3 I$ E
代码说明:4 R, Z- I- H& d' E4 ~
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。; l' h0 F. w8 u: o. t9 I4 E
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
. i: V) ~' h5 J2,segment 本身是很粗糙的,做字幕勉强能用。
1 b) t. A5 u$ T% ~' L3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。% J) M/ e9 Z2 j" ^4 {
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
/ _) {$ C% \, G- F$ U1 H! q; O0 P比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。! n2 p2 B4 K. U! I+ |, t
5,model.transcribe 中参数说明:
7 K' g; Y0 }& h5 d' [你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
" c" o' a+ x: d9 `. `其中7 y% ^. V+ I' ^
    word_timestamps=True, 6 \. z, Y: \; u& c0 l* E# l! m* E' {
保证了你能拿到 word,否则是拿不到的4 a; d( K! I/ C9 X- Z* I
    initial_prompt = "Hello, welcome to my lecture.")
# [; P* W; J& A保证能尽可能准确的断句 punctuation,但是不是决定性的。
( C7 n. ]: f0 Q! t% U: J" ^其他参数可参考源文件:
( f# P4 w2 Z: |2 |  ^  R$ N1 I  @https://github.com/guillaumekln/ ... isper/transcribe.py
6 |5 {; F5 c- m5 f152 def transcribe(* z0 ?( h8 ~) e! Y: ^
从源文件你可以看到是支持中文的句号断句的。
7 M% N% O0 c7 p6 w
% T9 ~4 p! T: U# n6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。! }; p: j! b: ~3 M$ \' o
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
: v+ L" P  P% [3 b7 A5 O8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。$ l  }3 N! r  l& B! M
9 k1 B! N1 B) l3 s
8 k% F; w! h: l% r) b. K
4 u/ c6 i- z$ Q, |8 |1 ], n

作者: nanimarcus    时间: 2023-6-4 11:53
多谢各位榜爷打赏。




欢迎光临 爱吱声 (http://aswetalk.net/bbs/) Powered by Discuz! X3.2