|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 * Q% J$ }5 s" O
' [$ e( r# f6 R0 ?, V5 Z借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
0 \9 `4 |, G9 M4 ]+ b; o效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
Z1 s9 l& Y3 e6 d/ `; I----------------------------------------$ u( |; W: \# K0 i
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。7 ?+ w6 D8 q9 y, H9 E9 v
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
! n+ a: o% d1 C% c# T- b0 f+ ?8 c4 j----------------------------------------$ A9 n5 R2 g% C- c4 t
https://github.com/guillaumekln/faster-whisper
8 z5 A8 W7 I$ @# q' K安装如下:; ]6 H2 I# B/ q% @# x; k7 V
1, Windows 10
% p- m$ C+ ]2 x+ G ?2, Python 3.10.11+ v) P2 e1 d G1 k* e' E3 U3 w
3, CUDA 12.1/ O- s4 S& x, C& F. l9 d
4, 在python 3 中安装. v$ o9 {4 c" f( ?0 E# ~! \! Z4 p2 b9 i
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117# l, |% o- u: {$ ] y
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。4 c3 A' C0 h* ]/ M/ Q$ y2 g8 P6 u9 E, ~3 ]
5,pip install -U openai-whisper
0 Y& H- u& N% M8 k$ k这是向whisper 致敬,可以不装
# h$ M" H! }9 n2 f) d) O6,pip install faster-whisper
: Q5 K8 U; E2 r% M# I----------------------------------------% I/ e t- h Y w5 T! F
whisper 我用的命令行,faster-whisper 我用的是python。
, o K1 U. A( M+ `下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
% }' q0 n- l. N& H% r, E9 ]8 N4 J0 w1 V _( @1 {8 L
----------------------------------------
2 J% {2 ~4 x/ J! F4 c( s3 o
Q9 k9 i& X, W/ C. x& _from faster_whisper import WhisperModel) S3 d4 d% u9 z( N% W- f9 h5 G
5 C) l' m0 Q0 }
model_size = "small"& _* `: t, ]& U0 \" h
! R" L; l8 h$ T8 X2 t( V& X
model = WhisperModel(model_size, device="cuda", compute_type="int8")
: w6 M: }5 v1 }. C2 `2 q6 y& E% n: _# ^3 |7 \: L
segments, info = model.transcribe(
. J7 y# C ^/ M7 y- A' j8 ~; \6 ] sourceFileName,
3 g& L* S {9 W! j3 I9 ^) r beam_size=5, $ G, C& R5 c- h4 l' m) V
language="en", ! a# l8 w" Z, y# E) k5 Q
task="transcribe", 5 w' E; L& e8 g! q9 _. F
word_timestamps=True,
( t5 x4 C2 Y# l u* ^/ p initial_prompt = "Hello, welcome to my lecture.")4 {4 [0 i- w3 P% R( w
! G% W0 v# ^: P' z
for segment in segments:
4 \4 E) |1 j9 ?0 @- D$ t print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text)). i2 ~ x/ k T$ G
8 t1 y& v4 n- @$ @& R' u
for word in segment.words:
. I2 h) J; y1 f* H9 r0 b
& A0 d# n. ]2 y----------------------------------------
% k% ^# d* t5 o) E
. w0 S+ S* v' ~" G# G2 ^代码说明:
- j4 l4 I8 d' i7 s8 I2 K+ L) f1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。) @/ M4 S* n/ `* Q. B8 {
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。* S1 r# k. _' @' t' R# M
2,segment 本身是很粗糙的,做字幕勉强能用。
$ a0 C! H) R `- z6 ~2 _6 R/ \3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
# o# v9 `6 A, u! s; ^1 ]4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
5 p1 z( h" I2 Q; V4 w. Z( ]2 t比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。2 M3 \1 E0 @, h' m2 h8 p7 q+ j" Y
5,model.transcribe 中参数说明:1 f2 x) F. w$ t3 P- `6 ^+ H) Y7 \
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数8 R# x& y/ K5 n4 q
其中1 |: a/ O& [' B7 t% w
word_timestamps=True, 8 i1 B" c* D" ~0 v I1 M* }
保证了你能拿到 word,否则是拿不到的
7 i8 ]# s2 p) g9 {7 Q/ z initial_prompt = "Hello, welcome to my lecture.")" g, b* A8 [5 B/ m
保证能尽可能准确的断句 punctuation,但是不是决定性的。. h4 [+ l9 P# A% ]7 i: }- _
其他参数可参考源文件:- a2 k& v$ q% o0 V* X, `% I" f
https://github.com/guillaumekln/ ... isper/transcribe.py
# a* c0 l' H2 C4 |$ ~152 def transcribe(4 k f% l3 T1 W, g6 f# G' H& ?
从源文件你可以看到是支持中文的句号断句的。' ]; ` I" u r; Y5 Q; z! u$ i
1 |: x- Q S; T) b& K* E6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。$ z, V# P3 ]% y: U! A
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
' R! g8 A& O0 q/ ^' R8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。7 S7 T* l* H" J9 c$ `
2 ]" [& J Z* T
, y9 U; Q- Q- F" E$ |* k% u f: m9 W5 B1 r' ~
|
评分
-
查看全部评分
|