|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 # Q& C" l+ G2 V) T
! g6 k# S( ]7 ?1 D/ X4 R
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
& f p. K# `* b7 ~8 O" K效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
8 U( X9 Q' m( r7 z- a" R----------------------------------------
/ O1 \# d5 Z4 x. U' @显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
: i% z" |, L0 V8 \, Z& V: I& b Z在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。# D7 C# u. m5 A" j
----------------------------------------+ N' a$ V9 e; b# ^" @% k
https://github.com/guillaumekln/faster-whisper
6 u( h6 A, }- j G3 I安装如下:
: Z5 c _: q1 |( k, k1, Windows 10+ S7 ^( h/ R8 M
2, Python 3.10.11
- ?4 K0 d2 k$ A3, CUDA 12.12 d6 F' i$ G: L
4, 在python 3 中安装
5 g( P7 [* {0 s; `9 Ppip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu1173 a4 O2 @& Z! D$ E9 A
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。 u* ~) z( W, T" g
5,pip install -U openai-whisper
: G5 V4 ~ f+ F, i' U. d这是向whisper 致敬,可以不装8 {8 q& Y( p8 \% @6 v: ^; _3 @
6,pip install faster-whisper0 P0 F; S& u6 \" u9 V
----------------------------------------9 Y6 c$ Y" T2 b: _1 P
whisper 我用的命令行,faster-whisper 我用的是python。$ q# [: ]. e" M: P; C @8 i, F
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:" |0 L6 s8 x7 K2 k3 ^: d* _& {7 ?
- z( ~2 K1 d& \; A----------------------------------------
2 \7 e7 d. @4 F6 v
! Y; `' R- v$ U- u8 m8 q0 rfrom faster_whisper import WhisperModel
8 v3 }4 p% I* ^+ m0 r& e; a7 X& B" g$ ^+ ?% j% I! D8 W7 h
model_size = "small". r7 w# y/ C' z' M% K3 `
, R1 C) B1 e+ b6 x z* |5 }model = WhisperModel(model_size, device="cuda", compute_type="int8")
' D6 O4 o, H$ n
7 y% m+ ]+ w9 t6 D* B8 `! ~segments, info = model.transcribe( k! ]) d& d. B9 R) c
sourceFileName, $ v# M& E1 c- _% O2 `/ ^# m- C9 R
beam_size=5, 1 L% n: O1 C, A* c1 _! u7 c
language="en",
' d' O. J( `! W task="transcribe",
& H1 v, A/ d+ S% G: A word_timestamps=True, + s* T& |, z$ Y6 G8 L- \! \
initial_prompt = "Hello, welcome to my lecture.")
7 i+ ? U6 s U0 ], k8 r- p; `' P7 Z6 j& E% Q4 t7 ]- R. @
for segment in segments:1 h4 p* d8 T4 E6 \2 o0 e) C5 s+ w4 E
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
7 H; p2 T; Z1 I: S8 D2 D
! h7 c3 A4 }6 W for word in segment.words:& F; @/ R: P4 z! r
% o2 x% G6 B/ _: f, L----------------------------------------3 m$ G/ c& Y9 b: ~% ]
+ J, P) {- ~% C5 V, Y# q
代码说明:5 r! n2 K6 ]) P7 c4 w
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。& }. F) u+ O6 D+ m( V/ h7 L2 m
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
- h8 _" C* M* t( W: R+ d: r; A2,segment 本身是很粗糙的,做字幕勉强能用。
$ j. Q1 | E, s; ?; R: t6 y3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
9 l' Y& q* `! ?4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
8 i, F- p. v2 {比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。: f5 X. j9 ^9 D! \
5,model.transcribe 中参数说明:
' M5 H* p4 l1 s( H, U/ r' |7 |你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数4 ]- d# m! {' J) J& j2 F
其中% `; M4 w9 E6 M! }# Y. ]4 L! t! {
word_timestamps=True, * `, J- K2 F1 E& L7 |# ^" s( K0 S
保证了你能拿到 word,否则是拿不到的
2 Q$ }7 |3 Z" \; L, a initial_prompt = "Hello, welcome to my lecture.")) b4 n" v% U7 Y% y# c3 }
保证能尽可能准确的断句 punctuation,但是不是决定性的。
0 G% U9 U8 Y! J4 r其他参数可参考源文件:
# A X4 S$ x$ \https://github.com/guillaumekln/ ... isper/transcribe.py) q# A+ [4 t0 q! S
152 def transcribe(* p( |( c9 ]- u" x5 c+ W6 W
从源文件你可以看到是支持中文的句号断句的。: i8 h: d( d2 O9 M# e
& ^; d, F6 b8 g' s7 q4 Q5 x6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
: e ` }0 Y. X) |, {( v) i( y7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
8 {( K* M5 L& k+ z1 Z% s8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。, w+ u4 K# a: m/ d. y
9 L( z- t2 L$ U9 e, w g8 r& G3 ^
1 L( m4 Z7 }9 B5 k5 C
; d, ]1 Z3 F0 X3 Z& w- n+ _
|
评分
-
查看全部评分
|