|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 8 }7 @9 S q4 H6 h1 I9 @
. l' o7 B ?9 k0 h2 G9 a4 Q& A
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
7 \& D/ a4 {* @; s' O! o# a% ]6 O效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
* B* J) N! j3 g0 B7 j----------------------------------------2 ^9 U; H; j" |1 n. C/ }
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。' Y' n; K: |# ~, G
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。6 M. p/ p. o R& Q- x5 g
----------------------------------------: d" g% l! ?4 h" X. C( d
https://github.com/guillaumekln/faster-whisper$ `/ A5 @6 |$ \ C( v
安装如下:
. @: M; N! l! G0 a6 s2 K1, Windows 10: J2 g O) s5 n) ?1 _! Y. o
2, Python 3.10.112 k! H Z( K# V5 u8 O9 P
3, CUDA 12.1: H# C3 G' d6 R. ~. C# Q
4, 在python 3 中安装
5 i# t% \6 ^# D7 k$ n/ N% x7 s7 l" ~pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
8 S3 b H7 T& s4 d& `) V这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
5 y8 _6 X' B: @7 Y5,pip install -U openai-whisper
' r) k+ C, N7 j1 X这是向whisper 致敬,可以不装
$ s( x; M8 y; o. e/ C6,pip install faster-whisper
4 ~' A0 A% l. Y: r! b# m. o----------------------------------------
5 {, Z8 k7 N( ~% O$ f$ e, Gwhisper 我用的命令行,faster-whisper 我用的是python。3 f, g! F2 H! _7 N! n! R
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:' l, \, B) J2 w5 |8 I
; n! U$ a2 H1 E& j" W----------------------------------------4 C# f* @2 E) F3 W4 E4 n" l
" o2 }, J, M9 ?" v! _from faster_whisper import WhisperModel
* y$ o* P5 [& L& _; I: X7 N
9 H. W8 g. X) vmodel_size = "small" {. M5 q: N* x6 N5 L: T# W/ Y
4 {+ a7 l) v) g6 v9 `7 }9 D$ z' z
model = WhisperModel(model_size, device="cuda", compute_type="int8")
3 H. s/ s" P; @; a& T/ x- I9 l# t/ H2 a" S
4 I" ]) n5 D' {- m9 X+ C& A0 ?" a! Asegments, info = model.transcribe(8 F- g; s; ^" \$ Z
sourceFileName, b4 G8 V! n" S# }. w
beam_size=5, 4 d+ I% {1 S* G8 F4 i" m1 t
language="en", + S: M- F$ i0 E A6 A
task="transcribe",
, v: R9 H* g( s, |! o0 ^( p* N+ S word_timestamps=True,
- e. Q7 k/ H8 l& L initial_prompt = "Hello, welcome to my lecture.")
9 b( p/ d F9 i( T6 \
P V; ^7 L& [! L' r" ~* ~6 ffor segment in segments:5 x' |# t% M u6 Y5 I/ ~2 J7 t* J% k
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))3 N# `: Q: D: _3 D3 W: E% `3 T/ }8 G1 W
/ r9 B$ D/ [: Z$ U for word in segment.words:1 ]4 t! `8 }3 d5 s* _4 K7 f, w
6 O2 d- t M% c0 e----------------------------------------
" \- @. d( S8 Q. E$ T t8 G3 ] `% M# B$ R* j7 V4 S
代码说明:, M0 e& O5 z* e, s
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。' y4 \: d! z- h+ y% D- e! e
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
) e8 M' O; l" B T* P2,segment 本身是很粗糙的,做字幕勉强能用。
) D0 S5 s# }. y# K3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。5 u' N3 I0 d: W
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中5 j4 S& s" B- Z/ ?6 i3 n. p9 V5 _
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。5 I- j" h4 O' J: @; v$ `4 `" s
5,model.transcribe 中参数说明:
6 M2 ^' w( w# ^- h你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数- d" A+ ]6 {* i6 ^
其中( ? v; X( L2 s( t4 D+ p3 G
word_timestamps=True, 2 V% p& R* `5 Z9 q
保证了你能拿到 word,否则是拿不到的
' g3 l5 `* M0 u8 T- T) k initial_prompt = "Hello, welcome to my lecture.")5 Z2 u( T9 q# w
保证能尽可能准确的断句 punctuation,但是不是决定性的。
9 w2 `9 o% s" K8 C( _ e其他参数可参考源文件:* U* J$ n1 l# _
https://github.com/guillaumekln/ ... isper/transcribe.py
8 t! G0 R+ P$ ~5 z7 K, b+ M152 def transcribe(2 w% d, D- C- i' U6 ?3 Q
从源文件你可以看到是支持中文的句号断句的。" z" @ ]0 D2 @$ p7 P" Q
|, f, O: F! H! x3 z, i' F2 V
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
) e( p$ o) r' k) s8 d' R3 z7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
, D- v+ x; g1 `( }8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
`9 H' u) ?/ o, N8 y9 h1 q9 u+ v- E
! x6 N" [! d' v& {6 x' F
5 ` p) ?8 S( Y0 F0 M) @8 z |
评分
-
查看全部评分
|