|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 + n$ I9 y! e& \
( n6 Q+ p2 x0 l3 t* _借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。# o/ ^$ @( c/ K/ n/ \
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
$ D( N( Z% F6 ^ w+ |----------------------------------------
% W R' w A4 |! s/ \显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
- u; C: @3 Q) b* ?; ]! w$ x. b6 v, x在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。
7 T* i( |; k' O y+ b9 {----------------------------------------8 H+ `* G% ]5 W: x: m5 Y }' I
https://github.com/guillaumekln/faster-whisper
- u. ?' |9 h6 y3 i% W' x+ X" K安装如下:4 k* A, G V, d4 b& B1 L
1, Windows 10% ]' Q5 a D0 q- w, Q: W
2, Python 3.10.11& ~1 ?0 l5 I% H/ g0 j( {& c
3, CUDA 12.1% p1 f* z$ _5 J; k6 c. ^
4, 在python 3 中安装( T- _8 O: l* [9 I) {
pip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
' l# l/ ]/ T# n1 G这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。; u) D$ @: Y5 i6 b( e( y$ X9 ~
5,pip install -U openai-whisper
* j% g: k# [% @这是向whisper 致敬,可以不装( T h/ P H& ^; ?2 J* F7 S9 B
6,pip install faster-whisper9 y U0 a9 V* u) B
----------------------------------------
% C& h7 j/ Y8 Y8 M8 ywhisper 我用的命令行,faster-whisper 我用的是python。
9 v3 j9 O' H& d; }# X @9 K9 S下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:+ o8 p& f; h+ W
$ h! k$ R: G; H; [6 n- Q( j- e% `----------------------------------------
' g6 J: Y) X. {0 Z# }, d- a# f/ w3 N+ b/ j
from faster_whisper import WhisperModel
2 G1 f( ?# c. x/ d
3 z/ p# d1 [" _$ Q& Cmodel_size = "small"
* Q O \; Z" K1 z
9 O1 [! m. X# z* O% I, ^8 amodel = WhisperModel(model_size, device="cuda", compute_type="int8"). ^" j# t' ?' P5 ]0 D
" w, }/ B9 u# ?; {1 _* x0 d4 I5 ]
segments, info = model.transcribe(
. z! r; k; c( _/ ` sourceFileName, 9 U6 g' H4 Y2 k
beam_size=5,
+ ] o& o- `, n# ^' o: a language="en", " T7 A* T4 h# F( H$ R3 y
task="transcribe", ' S9 W p( m) X" _5 T
word_timestamps=True,
6 k: g) Q* L- g6 T5 ~# I initial_prompt = "Hello, welcome to my lecture.")
% b, o# O9 l9 y( ~4 G# W
" T0 p# X! r* @- \+ O% Afor segment in segments:8 `; J9 ]" m3 C6 l2 ]0 k; y
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
2 ^6 _& N+ q% |4 L$ E0 k$ S* e
5 @' { H3 S/ H: W+ ] for word in segment.words:
3 b9 }7 k0 I0 a/ l, T 2 v q0 ~# v+ \" m9 n' ?6 [
----------------------------------------% u' j8 j$ O7 H; x# Z) f) B
- Q" A( E( Y+ J* M( b
代码说明:4 V: N: ?0 c6 b2 A5 \" \& {
1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。
+ N) ]! [' U. C' ?但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。5 a9 k7 g* o& l0 Y5 [ n
2,segment 本身是很粗糙的,做字幕勉强能用。" J% H2 Q u. M4 r5 y, V
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。7 \3 ~: ?/ B0 A* m2 b! @$ z
4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中& X8 R8 g8 r. T* Y" p: u' y
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。
& M6 {" u' X, ~1 c3 m" b5,model.transcribe 中参数说明:
/ i4 S' r$ B2 y; c2 }你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数. m* j% H/ h, M R
其中
. h5 Z5 R$ K4 w g word_timestamps=True,
1 n W) O& i1 p. `$ M" u保证了你能拿到 word,否则是拿不到的
3 J0 l! x7 p% }& x3 u5 g initial_prompt = "Hello, welcome to my lecture.")
* D @: @+ c+ [' _保证能尽可能准确的断句 punctuation,但是不是决定性的。
' T7 A' Q: ^6 {) s8 K. l; p其他参数可参考源文件:
) ~( e( Z+ Y7 s4 t0 y! t! dhttps://github.com/guillaumekln/ ... isper/transcribe.py
2 Y1 Y0 r) o! z/ l p. x+ _152 def transcribe(- n- q! t d' R: J0 m
从源文件你可以看到是支持中文的句号断句的。6 n( W2 N4 ?1 y; g) t7 V
% t/ N% y$ G7 H5 P: U6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。( B. m' X2 e. Q) \1 }
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。! C+ o/ @* I' h0 V4 `, X
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
. ~! K+ I- X5 y3 l: i. r: {: s* z+ }/ V7 Y! g
. L0 g9 k- `4 k* S: w% u0 T' A9 ?/ ?% q- k/ [( W
|
评分
-
查看全部评分
|