|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 $ Y0 j& ]- {1 _2 Z4 w/ t \
' {. c4 i- B0 u/ n借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。6 J. j- t& I: e1 t
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。: @% U6 K6 q3 `7 j
----------------------------------------; r# V% V. `+ ~, a- Y" g. w) G B
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。9 N% A( C- H8 Y1 I! f1 H
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
) K5 ~! s" n8 J4 u----------------------------------------
! Z+ K/ M+ ?: f( Z" W0 q- Shttps://github.com/guillaumekln/faster-whisper
" s5 |& w; I) ~6 g9 g7 j安装如下:
# L* A7 V$ `+ K1, Windows 10) J. T- D( C% w% v& z; ]
2, Python 3.10.11
- l; H* b& {' Q! s3, CUDA 12.1
7 o3 b7 d3 P! i& m+ b, z4, 在python 3 中安装
- M0 o( m- {0 W% O* bpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
' [+ m) |9 {; f* c4 r; s( [/ @这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
D2 z( u4 B% u- e! ?5,pip install -U openai-whisper
! r* n& d/ b# H4 M4 g5 O" |这是向whisper 致敬,可以不装0 P2 p/ [. e& B6 s
6,pip install faster-whisper
) e4 S$ T# M" u* c' p0 m' ^----------------------------------------
2 Z5 A7 a+ K2 ~( Q0 ]6 S; M6 qwhisper 我用的命令行,faster-whisper 我用的是python。
3 z& V1 U2 X9 N4 [1 w9 q下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
, @- x4 o+ h1 Y5 n n. w1 ^* h4 |, X4 p# B+ p8 M+ e2 D
----------------------------------------
2 A* p. F% m2 e5 M. e) \" q. e2 U4 |9 T5 q% F. h( n& K
from faster_whisper import WhisperModel- R/ v' O" }* I, H: ]$ s( P5 h! n6 O6 k
; Y7 E* s+ Q# h% X% W) \, l
model_size = "small"
7 T$ p" T/ |6 ?( |: V( N1 e* L6 I. N
model = WhisperModel(model_size, device="cuda", compute_type="int8")( o$ ~" m2 m8 O, M
. |8 `5 `0 ^. ^- {! z! qsegments, info = model.transcribe(2 P% c, \' g# t2 L
sourceFileName, $ _2 v4 U) C7 M1 I/ [
beam_size=5,
2 q- g3 y' w% Q% u' e, V" U language="en", 3 |; s& I8 D' i0 ~* i) ] j1 e
task="transcribe",
6 j0 n/ P2 c4 j word_timestamps=True,
6 Z" }! l4 y6 X5 S$ l$ f v n- E initial_prompt = "Hello, welcome to my lecture.")
/ w+ b, K9 \* S& [9 w
; X' w2 p% ^! Dfor segment in segments:
3 e, r+ g( `) c+ ?: t3 }4 K8 k print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))% P+ x& Q: _. w# o
' B V3 Q9 k8 n; m2 h* Q& ~# U% B
for word in segment.words:5 e( {$ c, f; {9 m7 o1 X
7 t P0 }& h. [. H1 B0 [----------------------------------------
0 Y- t. Z2 E1 V' q3 X, u# E0 r" s' ~! R! t2 t3 r' M' o
代码说明:1 q# s! @+ P' I* @
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
% b; M) _- e0 `" \但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
( B. V6 _* c; n$ i" V6 E2,segment 本身是很粗糙的,做字幕勉强能用。' u% f5 A" ]8 Y8 ], V7 L
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。. A1 _) q Q# u7 a+ ^5 u C: b1 p
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中0 |1 f# ^8 C! h8 ~5 m1 ^3 o
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。# W- w/ i' P. v1 k0 }$ B" _- ?
5,model.transcribe 中参数说明:( t) L9 G9 P/ j: G% |6 T
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数7 Y+ x; m: Y: \/ o
其中
# u2 S2 F! X ^7 o word_timestamps=True,
+ S7 }4 v8 X, a \4 {) `- Y. Q保证了你能拿到 word,否则是拿不到的
- b+ N# ?( i# s' [! f initial_prompt = "Hello, welcome to my lecture.")
1 {* |# a+ \1 [" @0 Z: ?$ i t保证能尽可能准确的断句 punctuation,但是不是决定性的。
1 Z, c/ F& F' T ?/ O3 Y7 |其他参数可参考源文件:$ c& A2 P' |# s+ O
https://github.com/guillaumekln/ ... isper/transcribe.py( {& X+ ~3 u' t* |1 @0 f+ Q
152 def transcribe(
! D* O# u/ T. T* E从源文件你可以看到是支持中文的句号断句的。: u7 {0 A! P$ h
" T7 L6 u8 w7 m: ]5 \6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。) L# @( @ O8 s ^7 u- Q
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。4 P( c' O6 G/ Z" B# E) V
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。( e* j4 x e2 Q) U4 I2 Z
: x8 r+ }* E* d# V2 y3 X
! g* [! F+ R3 l0 j1 s( b A; A' Q) i4 g1 J6 H4 j B& X
|
评分
-
查看全部评分
|