|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 0 P8 h# D1 V. g- ^8 g
$ y. T6 T# \ F* D
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
4 R/ B4 K) j* z( s! m, A' F效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
. b4 `! G& i8 J# `6 k; Y; V& p----------------------------------------1 u9 M! s- r3 J7 p
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
0 W: h! O3 X, S+ Z; n, m* {% ~在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。* d% `) I0 S; A2 w- v
----------------------------------------
' X$ P1 Y( \ P2 Whttps://github.com/guillaumekln/faster-whisper7 k4 Z) N. b* `# o+ m7 ^) ~; P
安装如下:8 {- W; b4 b& p; q2 {/ ~
1, Windows 10
& x. J! V( W3 l7 h2, Python 3.10.11
! t2 F& q' y+ w3 a) R3 \, P3, CUDA 12.1
$ v5 W0 l# @2 d- ^3 R4, 在python 3 中安装
) O; S/ F* [8 A6 W" Vpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
9 m9 D9 e7 |0 n0 m/ Q [这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。% N+ u) s/ ?3 i( y! f7 f3 J, q
5,pip install -U openai-whisper, Y* O; J* T. \% U
这是向whisper 致敬,可以不装
& S9 O$ N K# T; @6,pip install faster-whisper
3 q& I/ W, l( `+ @. _0 v----------------------------------------
& c2 n; B" Z% Vwhisper 我用的命令行,faster-whisper 我用的是python。
! m7 m$ O e- w3 E$ ~7 H/ U9 w下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
! y' Y: j4 a0 |* K6 w
) t, ^, Q0 {) l3 f w) n----------------------------------------9 |$ Z3 q) p0 G& Y8 f
6 |: E( ^6 \4 s p' P7 {2 Ifrom faster_whisper import WhisperModel
0 Q6 l B. F4 L6 t3 J9 g
/ q" G) v. x/ R: xmodel_size = "small"
- p& _5 f+ ]; \/ z" ]$ q1 }! v" T5 n8 R
model = WhisperModel(model_size, device="cuda", compute_type="int8")
- J" @. G% g: w# A: g8 C% G W9 @5 v8 Y; d4 P
segments, info = model.transcribe(7 [5 m& {7 Z) [2 R$ {- T7 R
sourceFileName,
* l, Q& Q0 Q' n. E beam_size=5,
+ C' E# K1 n, l1 Q* T language="en",
. f5 d! ]. Q' ]! w task="transcribe", 4 O! Q' v; U& V
word_timestamps=True, 9 q2 }% E& d+ m) T
initial_prompt = "Hello, welcome to my lecture.")
. {* p! Q1 y* x: ^% V$ m# b
* o# l/ X8 }) z/ mfor segment in segments:6 F. N! w' W- Q
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
" }. Y" D- \8 A2 H0 ]9 ~9 n- o0 @. j3 i0 p& O
for word in segment.words:
' Q# a/ @* q" ~3 l0 o* l! x5 }- J
$ c/ z& s& v$ l/ W! @% u; N----------------------------------------; o& V% C* O. S8 y! j
$ P" }# A" M0 t, s/ K! o代码说明:
2 g1 y: l( @' x* J. u1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。; A% k6 L' k9 z
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。) l1 m7 }1 F3 q1 e
2,segment 本身是很粗糙的,做字幕勉强能用。
6 k m7 `; e9 z6 i: M; L3 z3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
3 E2 [- F- z @! z* B4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
; _4 u) O) @; _ R+ J' Y比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。! r# |) q' k' }! |" |/ o
5,model.transcribe 中参数说明:' c& y3 g3 A; z! J2 j2 P$ O
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数1 T: P" v5 s" e( X
其中% Z ] S7 z: Y. R5 h
word_timestamps=True, 2 n, @$ u6 a4 V
保证了你能拿到 word,否则是拿不到的. a F1 z' `, t q4 J1 j
initial_prompt = "Hello, welcome to my lecture.")
7 r% h- u Q) ]+ v7 r# n% v保证能尽可能准确的断句 punctuation,但是不是决定性的。8 i; {( W3 k3 H
其他参数可参考源文件:
7 |5 g. G/ m; W3 P3 P: G7 y1 Yhttps://github.com/guillaumekln/ ... isper/transcribe.py
) ?9 s! H J, a2 ]152 def transcribe(
1 B0 I+ l6 ]: |& s' H. k$ Y从源文件你可以看到是支持中文的句号断句的。
9 ] {) ?6 d( m# R) c8 |
# P3 b9 ~) i1 s! n) l/ _6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。5 j; s; p9 ]8 G
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
! b8 d' Y# ~9 V8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。5 c4 C( V" \" s9 k" C) j7 L0 G
: o0 i/ \" h$ k3 U8 g% t
8 B. N9 b: X) o
1 k5 U9 c1 [8 E# V1 h
|
评分
-
查看全部评分
|