|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 , r; n2 |2 j+ J* H8 M
) W4 j$ A; Q" X1 \* B2 Y借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。/ _) y7 Y# o( d" x9 l6 {
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。. g* T: V) s$ w1 s
----------------------------------------8 g6 H, }+ Z3 t+ Q/ [
显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
1 j: U6 z$ F3 F( f在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。+ h' Z! K" T3 ~; Y. Q( q
----------------------------------------
+ l% j: c; ?' E' c: g9 _2 A3 `https://github.com/guillaumekln/faster-whisper/ C& x8 Q: H, o# M
安装如下:
( ~ z- _# U: b' H1, Windows 10
4 S9 p; V! p+ `$ z `7 u1 i! V2, Python 3.10.11
" a3 w' S' v$ R* m3, CUDA 12.14 V8 C. s* Y8 V1 |
4, 在python 3 中安装1 i( n1 u. j: T
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu1176 q. T+ _/ F" @& o# r* R, R
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。' {+ q7 I/ g- `4 W$ {$ Y& s
5,pip install -U openai-whisper
. s% H" b6 ~$ \; q这是向whisper 致敬,可以不装1 t: z0 M5 h. C: z) `' y' M1 J) v
6,pip install faster-whisper
7 v) t% g, _1 X, n& x5 {; F----------------------------------------
" p, E3 b( i( L8 e# B/ P; W" ~whisper 我用的命令行,faster-whisper 我用的是python。
& T1 `( d& Z7 {下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:4 b0 \; G& c0 H& ]! }& e3 _- _# [* j
# b7 w& x) z# K: T3 ?----------------------------------------5 _& _ X- _2 m H \. [9 T& s% R
$ O9 c8 u/ O& E1 B* ?! r4 e
from faster_whisper import WhisperModel! m. F/ b. V& P3 D
) g1 q' y9 {, k/ Z8 A9 T( x
model_size = "small"
3 ~; U3 y, ]/ h. g9 U, o
& \" S3 |$ {. l8 S8 A& `1 r" Qmodel = WhisperModel(model_size, device="cuda", compute_type="int8")) Q5 P1 ]3 v% ] H) d
, q0 Y4 r+ d. O% @) vsegments, info = model.transcribe(
4 c1 z3 b+ d I4 R$ ^+ u6 t( O. D+ \) z) D sourceFileName, $ |9 K: M0 ]) H3 |
beam_size=5, ) U7 H' z# T% A* B0 {4 z* K& c
language="en",
, I7 V: ~. E1 C7 @) h5 q, ? task="transcribe", 7 y" _' R, X- S$ x, O' N
word_timestamps=True,
' D( N! }+ V) I4 C1 U8 j1 @ initial_prompt = "Hello, welcome to my lecture.")
! R; T6 Z: I9 `7 U* h! g$ c) q5 E6 X1 U' E* z+ ^# {
for segment in segments:
* \" `' ~1 \( X2 r print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))3 P$ a! {4 ~8 D4 T+ p6 {4 i
, y- r1 h8 V. ]# G, j" W& R for word in segment.words:
9 m: X$ \3 W z' d! T- ]
# k% ~4 K6 M$ W1 w----------------------------------------$ E2 L' W- u3 i
# J! ]0 j4 a7 k. Z0 y2 z5 A6 F
代码说明:
; Y/ }/ _5 R/ v6 Y$ j1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。# b- x1 y) M& E
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
* r* h+ n2 O6 L/ m4 n' H) X2,segment 本身是很粗糙的,做字幕勉强能用。& W I9 Y I. E2 }. W/ t
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。% f4 ]# K$ N- T' O, j' f) B
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
! O* d( p U) A" X8 i3 A$ [比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
" d6 Q4 u' |1 u; C# k5,model.transcribe 中参数说明:
9 _# Y% D% Q& _* D6 L! i, {你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数7 \- S1 J- o$ e! B6 ]' e3 ]
其中
* t" B: Y3 _5 b2 \7 i# [ word_timestamps=True,
/ S9 l5 o/ l9 j8 q3 Z1 y: Z! v保证了你能拿到 word,否则是拿不到的
' q0 l' X8 [! ^: h9 A% b0 E5 o initial_prompt = "Hello, welcome to my lecture.")$ w% M# J {5 i/ e( ^
保证能尽可能准确的断句 punctuation,但是不是决定性的。# R6 |& O, P) S. z4 g* H" K
其他参数可参考源文件:, T1 P4 W; Y7 L9 X5 X7 D- ^: |7 L
https://github.com/guillaumekln/ ... isper/transcribe.py
5 U* \# S! G) @- b2 h152 def transcribe(. M# f& q- d k+ J5 C& a: m0 f
从源文件你可以看到是支持中文的句号断句的。
, S/ V Y; [- P: Y# A( m0 z/ l
G c7 e1 @7 ] Y# R5 y6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。: c# R) D( ]! Y! r% f0 I+ z
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。
! x* M6 y* M0 A v8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。( g3 D0 ^; z' Y, M" a
5 R& o# ?' g) Q# Z
# n! g/ y; y$ }0 Q* ~
! P2 [ m& p# Q9 E7 s0 [ |
评分
-
查看全部评分
|