|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
, O3 A/ ^2 a. H# |9 b! u5 x% {5 n4 [8 a( E" B; u1 N6 W
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
- W+ ~8 T2 ]* a* ^% b% t效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。- a9 K# `: [1 P* L9 ]
----------------------------------------
2 l) s1 Y* {* H7 P( ^显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
1 Q0 u& c# r; O8 X/ y' ^( y, v在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。' m7 U0 b2 `: L
----------------------------------------. w+ X( G: E, S. e; N W v9 [
https://github.com/guillaumekln/faster-whisper# Z( F; L3 Y3 `. t
安装如下:
' g; b! p; A: T" b. s0 C* b1, Windows 10
, Q5 J/ _' [5 m. l9 @# R2, Python 3.10.11
7 z* k% }7 H) t( O* H3, CUDA 12.1
3 x" k. W5 h% w3 l# ?7 i4, 在python 3 中安装% z; w$ q* ]& E- H4 E, O `# `
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
2 [0 D( w& t; |& j, E% F, J# g9 \( K这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
; S2 ^7 E7 Q, I- D6 k/ C5,pip install -U openai-whisper5 I- ?5 E! A5 ~8 G
这是向whisper 致敬,可以不装
y0 @6 c! t+ b' x g6,pip install faster-whisper
$ e' v @. e: ?) G' d4 [$ l+ `5 L----------------------------------------" k8 {* j. s' Y6 ?1 b
whisper 我用的命令行,faster-whisper 我用的是python。
$ l6 m7 r- \0 q* U6 ?8 q6 Q下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
& M1 }1 z- ^- `; ]3 M5 R. ~2 g$ N5 d: b$ f" \; H8 }
----------------------------------------: e. U: V/ d. ^3 k9 d
7 a7 {. ^9 X I) |3 Rfrom faster_whisper import WhisperModel, p3 W$ ?9 G/ \/ h5 Z
$ m2 v. X' G# g3 P9 o. v1 Imodel_size = "small"3 k8 o0 i6 X8 L3 U1 Q
+ H# r- {- y3 c0 @" b
model = WhisperModel(model_size, device="cuda", compute_type="int8")( C6 G: M1 b( H7 g
+ t0 [- [8 k% ~9 L4 C2 g" J
segments, info = model.transcribe(
( Y4 M* F1 O( H7 O sourceFileName, 6 h/ [- Y* z& J3 H! l: J8 z
beam_size=5, G3 m6 z. `/ {. }1 E4 m
language="en", ' ?& B d _9 Y& J* P2 B' e, D: l
task="transcribe",
1 t5 J( L" R6 B2 l* i; ` word_timestamps=True,
3 ?/ w& A9 p9 _( ?) X: W& M initial_prompt = "Hello, welcome to my lecture.")
" e1 A, b; z. ~- t( z( Z) Y4 [" e+ Z o/ g% ~
for segment in segments:
- c& p# U2 |' U/ U+ W1 d4 | print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))" d4 ?9 _- B3 T- a+ S: W
8 ]3 g/ g7 ^1 J! ~% O- ?
for word in segment.words:
' N& f1 D0 I8 R- y) ~ # v# o7 m+ c+ a: D+ ^& c/ G
----------------------------------------7 Q8 @0 A5 R5 H/ X9 d7 S8 u# n
0 w* l ]0 _ s
代码说明:
& ]/ [& c9 B7 t) k9 P1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。2 h/ c# X) {. @2 \ p
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。 D/ ]% w* X4 U! M6 k! z7 t w3 L- ?
2,segment 本身是很粗糙的,做字幕勉强能用。6 Q; F1 }/ x! e# J ?; C
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
$ |! Z2 I, C3 S$ R: S; I4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中" c6 }, n, G+ K+ y" H. z1 |
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
0 r# I' v" O+ X$ ^& S5,model.transcribe 中参数说明:, G6 e( Q6 W1 R1 s& z
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
! C( U. X3 K0 P: a- W其中
1 f3 ?2 o% E, u6 N' y) _. a5 J, O word_timestamps=True, " S0 P ~" H& Y& i
保证了你能拿到 word,否则是拿不到的
- l9 Q0 |: W# `# D initial_prompt = "Hello, welcome to my lecture.")
/ u$ Q& d% y) C2 ^6 \! ]1 b保证能尽可能准确的断句 punctuation,但是不是决定性的。8 E$ L* T+ I9 g6 G. R: b' i
其他参数可参考源文件:3 C! s6 n% i& \% j! ?
https://github.com/guillaumekln/ ... isper/transcribe.py$ Q' h' X7 z+ V1 g+ _& z; @* z
152 def transcribe(
) }) Z" x( l$ g6 T' r从源文件你可以看到是支持中文的句号断句的。6 K' }: v2 |% b/ U G/ j! w, }
% E* a* K! U6 P( W# U9 F0 Y6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
6 U! H u7 E2 ` h7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。, [. ^6 B: v. O8 c5 `
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
' w" [3 a6 B* e! K! R) F" w/ S9 E5 |% u+ e
, |6 E+ j) p3 q( [9 u; k
2 d( \- ?7 k- }3 u |
评分
-
查看全部评分
|