|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
6 U& p7 Y1 @) e* V* N. @- U/ y }1 y) d
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。/ n% M0 M/ B# p) j4 }2 K9 Z
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
2 A" o- O1 s$ b7 v& J----------------------------------------4 D: E0 z: i* `- `7 F
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。. j; N s& h( r! w' n: u
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。* w9 ^* u6 U9 @5 P
----------------------------------------6 ?( T: P( I4 d' f- r3 G4 k
https://github.com/guillaumekln/faster-whisper, q; Q% W2 B% m; |/ j/ |
安装如下:4 _5 x( V! A; X2 i3 u4 `- S$ }. {0 }
1, Windows 10/ W5 t" l# J0 ?/ O% |) M! W
2, Python 3.10.117 R, ]; H% p" d8 U3 _7 |
3, CUDA 12.1
/ u( r5 q' A8 E. B( C* X/ y4, 在python 3 中安装
& n- M, Z) T: J7 i- ^pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
+ ?: Z$ G7 A% z+ V3 P/ l这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
7 c* A2 Z. _9 j% {5,pip install -U openai-whisper# Z5 \1 R% O- q7 o3 O# y9 i0 S+ G7 |
这是向whisper 致敬,可以不装 v& \ b9 Q$ Z* q8 x
6,pip install faster-whisper
; Q, J3 }- a5 x. q----------------------------------------
% J; G: F9 X- ^+ }7 i- J+ Fwhisper 我用的命令行,faster-whisper 我用的是python。9 A2 @" x- ~1 J2 j- l) a# R" ~7 m
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:+ u1 W9 R. ~6 m
8 m5 w! S j* c) X ?& L2 _----------------------------------------+ V% ~& |$ f; j: v3 L$ g9 _- c
W/ s" {# D8 E V9 ^* ] H! t, b
from faster_whisper import WhisperModel
$ E, L& A0 a5 v, V3 b2 `2 d/ q; K( }) X7 |. U- b
model_size = "small"
; b4 K( E' ~' b7 F' P, M" ^
- N% Q1 M* m9 j# ?. v3 s- Mmodel = WhisperModel(model_size, device="cuda", compute_type="int8")( u$ Z6 n7 S' w0 `
" D# m4 K! w. u9 Z# D8 Dsegments, info = model.transcribe(
4 ~$ G* y C# i2 i! k7 ^: } sourceFileName,
( Y8 l" u4 V. f! d8 ^, U beam_size=5, 2 w2 B9 o- v) u9 f
language="en", & ]0 a" j7 O- f7 N
task="transcribe",
9 m4 m- x! f! e5 Z" v word_timestamps=True,
) a. V4 I9 L2 v* ?0 y3 _ initial_prompt = "Hello, welcome to my lecture.")7 a+ o$ R7 P; g3 z
0 T/ d3 b+ ?, f" W9 k8 v) wfor segment in segments:
+ ^5 [0 C9 ^- {$ U- |% j5 ]0 o print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
K+ S' h7 s1 s5 Y$ E5 H T- ]9 k' w' b2 @% d7 O
for word in segment.words:
t; A0 i3 [( G $ u3 z3 T( t# p ?4 L% i0 H
----------------------------------------
* Q" |3 d) |' g& z+ B/ \$ {) i. n; X; Y! t$ h/ C \% Z
代码说明:3 u2 ]. h% T$ O
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
' f: l8 z1 ?9 q# A; i: D但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
2 N4 Z* k2 l/ P) z4 O. m1 L2,segment 本身是很粗糙的,做字幕勉强能用。/ D$ _ p" f; G! t
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
" O5 e$ N9 q9 F8 |1 g4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中3 S2 j. i2 m1 k, ?8 C$ o" V
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。2 f7 c4 M# B' x A' N
5,model.transcribe 中参数说明:, l R2 I, V- s
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
& b* G) p4 l6 d其中' r( I$ G3 u0 ?: T! g4 c/ D8 o2 [
word_timestamps=True,
' j+ q) o- ]1 R. n保证了你能拿到 word,否则是拿不到的) Y; N& ~0 _/ Z3 r" P
initial_prompt = "Hello, welcome to my lecture.")
$ k; G( G$ `/ q$ I% k保证能尽可能准确的断句 punctuation,但是不是决定性的。
7 q. r0 |5 @* r- X0 ^其他参数可参考源文件:
4 M% B# K- x7 }2 N& ~1 F Rhttps://github.com/guillaumekln/ ... isper/transcribe.py
# [7 T P. X& w: W' `7 {$ F3 M152 def transcribe(
1 l+ K u$ H. s5 n2 J* b从源文件你可以看到是支持中文的句号断句的。& l6 N! a7 D- L4 @
! a8 U2 o+ E) z+ b; M+ U0 t9 ^6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。0 F, d7 L* p6 z; _, D8 j1 E, L
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。0 s* [5 J9 L* X
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
6 k6 Q: g9 v% M! g* V3 S; M6 h* z* ]2 a6 N# P6 i
: d' U& ]+ i% e: c$ k/ \3 ~0 c
: \) J3 p( v. F, ?" l# K' \ _ |
评分
-
查看全部评分
|