|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 7 P. s2 d; L/ z0 D
* ~: q2 u; Z) b5 f7 {0 Y. A借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。/ y* l/ O+ G7 |6 R9 p- E z) M; ^
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。$ u; o) K/ f8 q s9 l
----------------------------------------
4 _1 \# \" P; Q9 n8 P# V' A显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
" |; P1 x6 Y' |: g; t* K& |在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。- u4 }/ l; M# `- ?/ ?
----------------------------------------
' o+ b/ W6 S$ w" A# J' w% n# O; Hhttps://github.com/guillaumekln/faster-whisper
8 L0 ^+ e7 E5 s2 O3 ?6 |安装如下:$ c2 ^( h, ?; k4 @$ w J
1, Windows 10" a/ k9 r+ W; G: C% ?
2, Python 3.10.11# M" ^, d9 w1 z- F2 _
3, CUDA 12.1: [1 w& a4 S p1 Q
4, 在python 3 中安装
/ J K- C$ G: E7 q' G' t# tpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117& K9 \9 M. W4 q- f$ A' T* Q
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。/ [: f; s, p2 m |1 E4 i Q4 j
5,pip install -U openai-whisper5 w( l O) I5 E W r+ ]
这是向whisper 致敬,可以不装
v! ], n0 M. G q* o; \6,pip install faster-whisper v! k' I! d" B3 U1 `5 k/ z" m
----------------------------------------+ e4 B6 m/ y3 I/ m/ q$ ^
whisper 我用的命令行,faster-whisper 我用的是python。
( N) ]7 E" q1 ?9 Z下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
0 ^- {. |) y1 u$ r2 R$ l& E+ T) N ~# ]! R: p! e) X
----------------------------------------
+ P* Z0 g \) B+ }, Y( E
9 A, S S I1 A5 k" b4 Nfrom faster_whisper import WhisperModel
( J/ ]& c+ i# V7 j, Z4 ~2 |+ c" h
model_size = "small"' I1 m; A6 \& E9 s( N% M W
1 Q w, z/ \+ i' _: N3 n3 p
model = WhisperModel(model_size, device="cuda", compute_type="int8")$ h, k( J/ y+ I5 W8 F/ P
" |( m( B! e% ]; P! @& C, R
segments, info = model.transcribe( I! [: _& t- [$ L1 I6 ~
sourceFileName,
) K) }: ^& H- t beam_size=5, 6 n% j# X0 G: r6 N0 q" r, C6 _
language="en", ! ~/ t0 W; H) ~0 y( T; N
task="transcribe", 4 x, o' a6 V2 K6 [! F# `/ K
word_timestamps=True,
7 N- Z' _ v6 E. `: f; L. q initial_prompt = "Hello, welcome to my lecture.")! ^) w g1 `* ~) i+ J
4 M" O; g* K0 x- m* |3 d. Y) _; Hfor segment in segments:
, ?* Y7 u6 S3 I; S1 ]) Q9 r print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
) h) O0 c2 }6 Z% M2 Q
' G; t8 N, G; K$ v' p0 b for word in segment.words:8 R4 V. r0 W' U$ A4 U
# q$ |4 J: H; b, z9 Q7 q----------------------------------------# [) P$ y P. v$ ~8 h
" ?0 N2 d: C/ R
代码说明:5 d2 ?2 D7 J8 a. `/ k- y
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
4 n4 H0 c1 d' v! L P1 U但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
, s; w& r, R5 z1 h) l. @. [* {/ e% ?2,segment 本身是很粗糙的,做字幕勉强能用。
* L' v( |# t( A0 e3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。5 u2 @+ }; v7 R* C2 f
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
6 J2 J! q/ o: R# }2 N9 O4 Q比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。% G" d8 y# ?5 }# K$ T
5,model.transcribe 中参数说明:
9 V* z: D* ^; V6 n) B3 n你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数' G7 K+ E' U8 k
其中4 G8 z; k" b* U4 h' c' N
word_timestamps=True, 5 A( W0 j9 N* u* `+ E5 N
保证了你能拿到 word,否则是拿不到的 l* e/ v. M6 x- F
initial_prompt = "Hello, welcome to my lecture.")
5 Z4 z2 y& J2 F3 ?& ~! a! c ^保证能尽可能准确的断句 punctuation,但是不是决定性的。' v% C- D: n8 j; ^7 m
其他参数可参考源文件:
2 h+ b/ O( I! }/ G) ghttps://github.com/guillaumekln/ ... isper/transcribe.py" ~8 ~1 C M8 ^
152 def transcribe(
- W" z7 ^; ]0 l' m. z# U2 ]% l1 Q从源文件你可以看到是支持中文的句号断句的。
; v9 J3 U* m' f, W8 K- {% ^8 S0 }/ _: B2 w
( j! {2 u$ x" f8 g) @# _6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
2 B7 i, l* ~. {4 }3 B3 x1 b7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。. ]0 ~2 w, S' @0 f/ M' A
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
: P1 l/ `& S9 ?
& W$ l6 L% G$ ]" Z" }/ s! G
U- r) s, a, u# d) h
) I' G9 k$ D2 w! g3 k" l |
评分
-
查看全部评分
|