|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 . T# O- u# d2 V0 }, o! J
/ F9 [; ~! p- R, W8 A/ v9 {! q, r
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。
/ [( J( r, Y- |效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
9 Q$ S6 N* |9 P: w9 X----------------------------------------
9 D) Q7 ~9 b' n$ i: K/ m0 J- m/ \$ }显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
; v+ S& k6 ?7 i1 V9 v在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
. d7 ?0 U Y2 y----------------------------------------
8 S& m3 u, Q% M/ p+ y5 e% ~8 C& ahttps://github.com/guillaumekln/faster-whisper
$ {/ X4 W* x, ~4 B+ z6 l# L# N- `安装如下:
. S4 p- ?, R3 y* X1, Windows 10% T: X8 J X4 a0 x
2, Python 3.10.11
3 |* X" Q; g- X6 `6 i% ~3, CUDA 12.12 g' e6 m. h4 _$ [4 G: _3 S
4, 在python 3 中安装
5 H- q% i2 D1 xpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu1174 m# ]7 F$ R. H- X" v
这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。9 ~' I: J& S8 \
5,pip install -U openai-whisper3 b) \& u! q( ~- \' M: r0 ~7 d
这是向whisper 致敬,可以不装! n) X! j6 r8 E3 o
6,pip install faster-whisper
$ ]7 t f% Y5 O$ z! _) h3 l5 j+ C8 k----------------------------------------) X; Q% g4 o9 p1 q7 t1 D! a( J
whisper 我用的命令行,faster-whisper 我用的是python。
. R0 o3 J$ M z" u1 f# I, v" z下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:: `. [2 t4 f x1 \7 A
; P% a0 j, e6 g) i1 J" r2 ]' Y. ]
----------------------------------------
2 Q. G4 a+ \1 d& z; f0 j5 s0 `& ?2 s+ r: v' l
from faster_whisper import WhisperModel
8 r: F/ D5 i2 S6 c* f: u6 J2 ^! g" M9 n0 x, Y
model_size = "small"
) t5 W8 w- P0 f( x) K% R4 Y& f1 M" o8 p- D
model = WhisperModel(model_size, device="cuda", compute_type="int8")4 }. z! k2 n& u9 f9 f2 s5 `5 T
6 [1 _1 b8 Y( y5 F. f3 C2 V# x nsegments, info = model.transcribe(& U# a2 F4 ^8 I: c( O
sourceFileName,
4 e( \$ w: M6 D4 y6 ]* E. Y d beam_size=5, ( u+ `. y5 M2 {# H" i& R
language="en", # h( J2 k, i4 u% }# Y9 X
task="transcribe",
9 {5 a$ X! k$ j& k0 f& i word_timestamps=True,
% o9 y, ^* E$ N+ [4 | initial_prompt = "Hello, welcome to my lecture.")
6 j, S( {' H) l1 q1 q- z7 n# r2 x/ A/ v- e4 \. u0 k3 \. |
for segment in segments:
# A' V: k t2 [* ~( {- a print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
# j5 X5 M% ]4 D# j" E+ n# y4 E3 I+ k) b# r p7 a
for word in segment.words:$ ~, D# g! `3 ?# l7 e" Q1 @: F
! ~* ]0 @! M, ]& K& c9 X3 ^: G
----------------------------------------
9 N: W% ?/ H5 A3 [! p0 r& k# f: J
" c& N. }$ V- G! n. e代码说明:
Y: m3 N. a* T! K" a1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。% h& _: ]% C) O# b9 t2 f
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
0 [% s( C w( h' I" a3 A& Z6 ^2,segment 本身是很粗糙的,做字幕勉强能用。% ?) r; e; W8 k7 O2 K8 z
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
5 U( i5 z) [. k: g, ?4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中7 Q7 O: |: u* I; f+ a" F
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
3 I5 |4 L, H0 X* ]5,model.transcribe 中参数说明: O7 P+ i4 v3 ]) }
你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数5 `7 P1 O% S7 }- H! E- N
其中: h2 Z9 @ Z5 x, I5 E2 m% V# _
word_timestamps=True,
" [8 v9 a4 a# o2 F8 a保证了你能拿到 word,否则是拿不到的
) T: z& @. T# V% v- q( K4 i initial_prompt = "Hello, welcome to my lecture.")6 H$ Y' K3 V* z4 D4 M( O! Y2 C) ]
保证能尽可能准确的断句 punctuation,但是不是决定性的。; [! y F1 v" c. U3 u/ B5 z9 t
其他参数可参考源文件:
, U6 c. h4 E" j: [; @https://github.com/guillaumekln/ ... isper/transcribe.py
3 o' A/ t: V8 o152 def transcribe(
1 `' Q% U0 C" g; S从源文件你可以看到是支持中文的句号断句的。
. w1 _! N" n( C( L# N6 r. F! ?% w8 o1 ~, `% Z! B
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。
% Q$ s. v/ D# A! O7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。( b' U2 V- {( K9 E! `
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。4 n0 W; A# l: r! K j
5 q! f, F2 D2 h; F9 g+ ?5 [' d
; B4 ~6 i$ k1 J" S) t: H% B
+ A" x1 C6 }9 [7 C. r |
评分
-
查看全部评分
|