爱吱声
标题:
faster-whisper 更快的语音到文字的识别 ASR
[打印本页]
作者:
nanimarcus
时间:
2023-6-4 02:10
标题:
faster-whisper 更快的语音到文字的识别 ASR
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
/ q3 P0 N4 S$ p8 x
4 {# e) @$ h5 R) h2 A% b3 Q
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
6 z4 W I$ n$ g* k6 I m
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
; H. E1 i2 ^8 a
----------------------------------------
7 [0 \/ m# y6 p, H& x9 x
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
: o( y4 G: L6 K+ `# ^4 |9 l
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
4 z# V% m4 O$ N
----------------------------------------
: b% K7 T. l3 J' V4 Q$ \& ?* |
https://github.com/guillaumekln/faster-whisper
4 R5 m# L/ W z& u: N) V' C' z( {
安装如下:
" y- b8 _2 k8 D6 R3 g4 q
1, Windows 10
( R" w7 i! o5 B( c- F
2, Python 3.10.11
0 S0 P( V5 ^0 Q
3, CUDA 12.1
0 E4 O; J3 w! _ q1 l4 L) B
4, 在python 3 中安装
+ p* ?0 `4 W& R. ~
pip install setuptools-rust torch torchvision torchaudio --extra-index-url
https://download.pytorch.org/whl/cu117
. o. |8 B9 f5 ]2 L: c
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
# c4 o; n/ i* Z# U# M1 G
5,pip install -U openai-whisper
# J# K, W' N! J- d, f3 w# u
这是向whisper 致敬,可以不装
; O4 V9 `" L/ }% J3 p# F
6,pip install faster-whisper
* ^7 ]' M" m# O, T
----------------------------------------
! t, @% q J2 k# Q8 i
whisper 我用的命令行,faster-whisper 我用的是python。
* n9 O( X2 b) m5 n
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
# C( B6 E4 c/ `3 p! B
m' _, Z2 V) l% ^# @2 W4 ~
----------------------------------------
/ Z, t9 n$ a7 N) P6 Y3 E
+ y7 M; M2 B; j9 a/ `" _& _) F
from faster_whisper import WhisperModel
0 k: a/ _4 S/ X) v
* U3 X/ s2 c" o0 H2 l* G! [. l2 o
model_size = "small"
2 U _6 B ?7 y; N, e* c
, `$ x( v8 O: C; s4 J8 j' b, h- a
model = WhisperModel(model_size, device="cuda", compute_type="int8")
- Z* Q; D' Q2 U3 F
9 Q- ?5 M0 r6 N" g {2 U! v
segments, info = model.transcribe(
. C J$ z; \% r7 C
sourceFileName,
: o5 Q+ q' }. u, ^$ H3 B
beam_size=5,
3 X2 k) I) O+ A
language="en",
/ V- |! A$ [3 x8 `- C) ^
task="transcribe",
' M6 x7 K2 W* G l% y
word_timestamps=True,
) @* E' o! L* P6 T
initial_prompt = "Hello, welcome to my lecture.")
3 S v) x1 U+ ]1 x% F
4 Q* ^6 k/ S. c S& Q
for segment in segments:
2 f6 Q* y5 v9 R& G6 ^
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
" }, O* I- y3 ?2 |8 M( ^3 F# [3 J' z S
. L6 d$ W: x: w( Q3 V
for word in segment.words:
6 _; l5 Q ~+ ^9 T/ E6 H
) e) }, Y6 A2 s8 k: ]% [
----------------------------------------
& l8 B$ L8 e+ S. @
# c v# r8 v4 I. `5 ?
代码说明:
1 F; e3 u: M! Q4 R
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
8 `& w8 N1 @* X; ]3 b
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
* ]+ P9 G* }! d0 Q5 U
2,segment 本身是很粗糙的,做字幕勉强能用。
, x. F6 O0 f8 V, ]' K
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
) k) i" L/ C. M% @( P7 s
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
7 n k3 Y- B* {& r$ m
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
( j2 D8 Q. i! f
5,model.transcribe 中参数说明:
' t9 Q5 j& f4 k8 E, ^! S. F! e* f$ _
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
; }, F0 E: d0 y- G( a: e0 R
其中
8 \% d* ]1 L- a* c0 ]! \
word_timestamps=True,
8 a( `" t' W2 t3 C9 l H3 n! i
保证了你能拿到 word,否则是拿不到的
9 Y8 a1 H. ?1 C0 V( _
initial_prompt = "Hello, welcome to my lecture.")
9 d( A6 K6 k' A( o% c$ s
保证能尽可能准确的断句 punctuation,但是不是决定性的。
* {% d4 g- M2 t5 S5 d) V- c
其他参数可参考源文件:
- e7 L) N5 m% |& r
https://github.com/guillaumekln/ ... isper/transcribe.py
, M/ c3 l0 S9 J
152 def transcribe(
& \3 G- O2 ?; {2 ?
从源文件你可以看到是支持中文的句号断句的。
, n7 y2 R4 ?% X1 C4 w. c' `2 _
# }2 f2 ]* t' F0 X% I7 ?9 L
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
. e) }& b; p% Q2 @2 G$ Z
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
2 M2 M- @* X4 }1 M/ _. J2 g
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
* Q% {, V) J! O8 V; S. A | K
4 R7 h- B9 y% D' X
3 y4 v+ |0 V' E7 q$ x
+ @5 @( }: m* |& c& o8 m
作者:
nanimarcus
时间:
2023-6-4 11:53
多谢各位榜爷打赏。
欢迎光临 爱吱声 (http://aswetalk.net/bbs/)
Powered by Discuz! X3.2