|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 * O, j/ k! x9 `+ z
4 T' X4 P- Y, G! }' W6 L
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。5 b) i3 w3 z$ a! p" d
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。: T3 ]6 j& N( ^+ J3 w* p
----------------------------------------
9 \- K% c7 n; u5 s显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。, W* p# a4 A/ F2 S/ z P* ~4 ]# y+ W
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
9 S) r$ Z2 e; }" X% R5 W1 K( o! h----------------------------------------: P! M; s6 W. P8 D
https://github.com/guillaumekln/faster-whisper( v3 u# ]- O3 ]7 V1 b* B
安装如下:
( i+ R' X9 n0 {! Q v1, Windows 103 S$ F& T# m# a) S
2, Python 3.10.11
" J9 j# N5 T3 N/ k. w7 {3, CUDA 12.1
- s4 |; `/ k- A5 ]# @! C, r5 l4, 在python 3 中安装
* H; _: j' a" w7 y. L. `pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu1171 k+ }, f( F0 z9 c: e
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
& X3 n7 H& o5 O& I/ Q; Y& |5 T5,pip install -U openai-whisper
3 ]8 c3 o5 C+ ?6 }; j$ u这是向whisper 致敬,可以不装* Y$ A2 ?2 u" f5 F8 E4 `
6,pip install faster-whisper- R4 \; g4 Q' f/ _5 e& N
----------------------------------------
: l* |2 {9 L; w! hwhisper 我用的命令行,faster-whisper 我用的是python。6 V# Z+ T5 m7 l, D: e. G l
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
7 ^, a4 h3 W( u; W
* x0 @6 K7 V. [8 s; y0 H1 w8 o----------------------------------------
" n% d9 c+ v+ [, l8 h i2 P1 L' C- A+ d4 ` b* W8 U
from faster_whisper import WhisperModel# O* @* F8 d) ~6 y7 w& m
% y4 _7 V3 c6 U
model_size = "small"
- `. j- q& E' f8 t& W) o9 R4 V& V, H! A5 N$ O+ i* W! V
model = WhisperModel(model_size, device="cuda", compute_type="int8")
: L% ^6 m8 ^* j! j
6 |5 r" [5 `" f5 Wsegments, info = model.transcribe(
. b# }$ Q. B8 T8 n) o sourceFileName, - m. K/ f: ~ W$ q
beam_size=5, 4 Y. T! |5 J; h$ _) U7 ?5 ?
language="en",
" @, P1 b! u" o task="transcribe",
9 z8 t! c* T5 k$ ?& u7 w word_timestamps=True,
4 s2 e& I# F, f" E5 F" N initial_prompt = "Hello, welcome to my lecture.")1 Q* j. o4 X* o2 }1 ]
" L+ _# `6 u7 m$ r* _for segment in segments:3 d, ?% z1 w# L
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))5 P* ^# X* L. _& j
& E, J& X/ W h* P; S
for word in segment.words: l# [+ V: F2 X0 B; Y, Y
5 u; |* s; @5 a, r! B, l; S
----------------------------------------
+ T) `6 K2 w8 {6 K- F8 S# }
- {6 `# d9 [8 H( Z代码说明:' D% x0 l0 {; p4 v- N
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。' W, t0 D+ r4 Q1 H) V
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。+ C/ n+ |- r2 q* t% L3 k' _' t
2,segment 本身是很粗糙的,做字幕勉强能用。: h, K; Q9 K1 l$ s5 P9 w/ ~
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。, X* A, x/ ~. U8 W- o5 {4 G0 R) e- b
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中% I1 `! p* T$ F. A7 C# O
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
: t& y+ D4 Z( d5 {- N8 u5,model.transcribe 中参数说明:
2 s( j k! V1 {! V1 X你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
0 ~# g$ m! c, N/ [6 }; A9 c其中( p0 `, r, G x( b' V/ k, h
word_timestamps=True, 2 H' \6 O8 x$ c
保证了你能拿到 word,否则是拿不到的
& i0 q3 M8 p8 T! \ initial_prompt = "Hello, welcome to my lecture.")( Z( X$ @6 a7 [) z
保证能尽可能准确的断句 punctuation,但是不是决定性的。/ X9 ^+ `1 o+ `. q1 Y* p9 i) Z
其他参数可参考源文件:
# d6 l+ ?# |7 i; W; ?https://github.com/guillaumekln/ ... isper/transcribe.py' s$ x4 }# D* E2 _' d
152 def transcribe(; y0 E3 K. h& _, }/ M# g+ n# |* e9 J
从源文件你可以看到是支持中文的句号断句的。+ M7 G; `) X8 f2 C- H6 l' g
! D X( x% N8 Z
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。: s5 d5 D; i6 X( m! S5 \
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。3 i/ K# X+ K) n U% ]2 V
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。" \* [7 a' b* f- Q
6 M. y; j+ W; e2 B
3 l g; m2 P8 A, e4 H- z ]0 J9 R$ ?- j3 B S+ r, k/ J9 @- R: K; O3 `0 S
|
评分
-
查看全部评分
|