|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑
1 Y2 R) ]; d2 c# y
' o' {" y" a O' U; g8 q8 h借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
6 `/ V/ q# g7 ]2 F% o9 l E4 \2 @2 n效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
9 P& P9 d2 P) D----------------------------------------, D* Z2 o5 O, }
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
$ ~) X9 q2 L1 [: k在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
2 X# r- [- C$ l( T----------------------------------------
2 r3 t, S. K) `; ^0 O% ^; S7 Jhttps://github.com/guillaumekln/faster-whisper6 S! o' F9 V. f3 E
安装如下:5 E* C9 n; T7 m/ m" D2 y
1, Windows 10
7 J7 A! i/ {4 [5 I: k2, Python 3.10.11) C7 l+ V9 u$ o& P. i. o
3, CUDA 12.1
: Z; }6 V* M) F4, 在python 3 中安装# R" W0 l* e, \% T
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
* K$ a, `3 a8 J+ H这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
3 |! w8 K, w# z5,pip install -U openai-whisper- _1 ?1 J- ]1 _+ \, d
这是向whisper 致敬,可以不装* }8 R7 x, D, m9 X( [' U
6,pip install faster-whisper
' ^9 h" G' m9 F----------------------------------------
3 {% j5 {0 |0 m, [2 u+ h( Ewhisper 我用的命令行,faster-whisper 我用的是python。' B) r* a* _6 u- f5 A
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
0 N/ p, s% ^ v( I y0 f7 t& `4 I+ o: }% J: F
----------------------------------------% J6 H1 f8 N; _1 ~
1 J7 `! c9 l I' V/ r9 o
from faster_whisper import WhisperModel5 W3 R) Q8 ]0 |
! c$ Z1 l" B3 n1 h; g+ y
model_size = "small"! }$ S! {6 |9 s* q" W: b- ?1 C1 n
$ X# t+ F4 u1 o" Z
model = WhisperModel(model_size, device="cuda", compute_type="int8")
7 O) Z# T' l( T& L" t, U& \$ r# @+ T
8 w$ Z1 x0 K3 K5 ^3 ^segments, info = model.transcribe(9 N; `+ j3 \: m
sourceFileName,
; ?$ |6 M) _. z beam_size=5,
! T3 b- d7 s* f language="en",
: r% o! t/ k; J' v2 ~. l) c task="transcribe", . P; x3 X2 n( U# n% f; \& v7 P
word_timestamps=True,
8 q) B$ [ E3 ] initial_prompt = "Hello, welcome to my lecture.")
1 c* p& d; W/ e$ I- E0 S! P, e
' u. J! p8 Q& A- x. Hfor segment in segments:
$ b+ e) Y1 p: g. Z# Z print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
5 B/ ^9 r& w' u' b- }( C, I- e5 y+ G
for word in segment.words:
, ^* s' s/ @( d8 `3 `2 ~. z ; h! ~6 o5 E, w2 F) p
----------------------------------------
# v) p, g4 D" G7 K
8 r5 ~6 s, ~5 [! `代码说明:) a+ R$ R3 {9 P* ]( Y+ Y% i
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。. X. C) c& u S8 S$ O9 Q: f; U& \
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。: z& |4 |1 T Q0 X$ F$ s
2,segment 本身是很粗糙的,做字幕勉强能用。
$ D0 \& t4 y2 E8 m( i& \# Y3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
( F2 a5 y9 ^" I9 v/ R4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中5 c; U* \& l0 }$ s
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
8 |! ^6 m! C' \0 |. W- u4 f5,model.transcribe 中参数说明:5 U, L4 O1 L$ N4 u
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数$ Y/ R; @8 {* e) N* o/ W1 h+ |
其中
1 `) Z$ Q7 Y0 n word_timestamps=True,
4 ]- K, T9 ]+ w- L. l0 e保证了你能拿到 word,否则是拿不到的" V/ e$ {7 r# V7 N/ p% v9 _& ]4 k
initial_prompt = "Hello, welcome to my lecture.")
) x5 A$ W- \, `7 ]' S保证能尽可能准确的断句 punctuation,但是不是决定性的。) `+ [, Z* a' Z, t# S, c
其他参数可参考源文件:) O3 q1 u$ f1 R+ b8 _! {5 I$ I
https://github.com/guillaumekln/ ... isper/transcribe.py
7 r Y, ~2 m, J0 l152 def transcribe(6 I. V, f' K, u1 m: [( O9 `
从源文件你可以看到是支持中文的句号断句的。4 O* @. c R a, v$ U+ A# G8 k
0 L7 g+ b( R5 p7 |$ b7 R
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。+ Z3 l# z8 C- K* w& \# M" W% S5 p
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。; c) \5 ~, u( Z6 @
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
1 R9 C; J. z+ R+ R/ r" p% x2 U/ \- e# ~
5 n# {& R0 _. E% _
4 t9 A& S6 y9 P& `0 I
|
评分
-
查看全部评分
|