|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 6 T! Z* e# i# |
5 v/ y$ m" Y) A( N
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。7 L* s$ E/ g6 t7 c |0 p
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。+ V( f5 n) Y% }; t
----------------------------------------
6 V/ N4 J! w* K( @- U' Q4 |显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。- E l. W+ k; g' w! _
在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。1 n$ g- A3 K( W. v
----------------------------------------. d+ n7 P7 Q0 N, @; k* J4 H$ q0 X# v
https://github.com/guillaumekln/faster-whisper2 y. R; p+ m- U% I
安装如下:1 }( {% ?8 w J# V" G U
1, Windows 10
4 d0 v M) C0 _7 ^' o8 h2, Python 3.10.11
1 Z" C3 I) o- {0 J9 O- n, v3, CUDA 12.1
0 x/ b F9 H# N% x6 B. ]4, 在python 3 中安装
% r5 Q7 ?- R0 S, V) j' dpip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
6 k y0 S) f1 q9 b! B! i* U8 ]$ A这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。
+ b1 L2 t$ F, C3 }, O! n5,pip install -U openai-whisper
- \( a! E: o) Z* w1 \这是向whisper 致敬,可以不装! A7 y! M8 ^8 v; ?
6,pip install faster-whisper
5 t% C( \5 V/ y5 N4 a5 y----------------------------------------5 B; M+ G4 m, R. [' b# [
whisper 我用的命令行,faster-whisper 我用的是python。5 j8 ]) ?* ~$ o) ~
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:
7 H5 ~3 E. R, S. H
& T' n L1 E6 u& J8 v----------------------------------------0 u; w" E6 v" A4 c6 Q X9 }7 K- O6 {
% ~" n1 T# g8 o, I. ]
from faster_whisper import WhisperModel" y- [% x. l: s5 X4 K; o; B( y) F
3 G9 h8 ?! D* e2 E; @% n
model_size = "small"5 i6 A( {# D* T3 [
! C: ^" S3 b; d" _. X
model = WhisperModel(model_size, device="cuda", compute_type="int8")
; [9 \4 Z$ _# \) X' L% _/ r/ R' K" W: P9 V2 I; _4 ^# A7 s9 T: R
segments, info = model.transcribe(- M6 C8 `3 |: _, J) M
sourceFileName, ) ^4 d3 L: q4 y& a O
beam_size=5,
! p7 T& C! c5 [ language="en",
4 I4 R9 w7 o: C task="transcribe", # i8 `7 O3 m7 G
word_timestamps=True,
- _9 L9 r2 R" C7 ~ initial_prompt = "Hello, welcome to my lecture.")
9 q( k u r3 r1 R2 Y9 t2 \; x) \3 I. w: e. j% B0 ]* \( D
for segment in segments:
- a7 V) h0 K' h$ T2 J U7 O print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))1 m) b* ?( H: I" {; a
& b; z0 B7 W. o: Y: P0 |
for word in segment.words:
# i4 O; b, y0 M! J; a/ j 3 z0 H" S* ^) ^* m
----------------------------------------* n2 q: l3 w3 \3 ~. t/ B3 s# N
7 e& c0 h# }3 z4 w代码说明:
F; U# i; b% Z& z0 O. b) w1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。5 j3 K0 M# e2 F, h, Q$ Q) R- `" N
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。
# E: Z! K2 m! E2,segment 本身是很粗糙的,做字幕勉强能用。
* q8 g, Z( A K) T3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
" i$ p" S* [) P: P4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中
v) k* y* Y' K- C* B/ \" Z! b比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。8 e% O$ _/ j9 l. F
5,model.transcribe 中参数说明:
; X3 U: ^2 n* Q5 N( g1 W% B6 N, t你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
! w- A/ s& X% }) e' b) v a! M: j其中7 K+ M) k/ h, T$ p3 L
word_timestamps=True, & L, q8 q# G+ ]4 l _/ k
保证了你能拿到 word,否则是拿不到的5 E; T) c: @; Y3 T$ C0 W
initial_prompt = "Hello, welcome to my lecture.")+ @- t O6 e: B5 Q1 {
保证能尽可能准确的断句 punctuation,但是不是决定性的。/ L: G: J6 S5 A4 ?6 _: d
其他参数可参考源文件:/ Z( }- l( l1 a' H' D. V. t
https://github.com/guillaumekln/ ... isper/transcribe.py
* o& y" p- L7 [* O: K0 V6 V152 def transcribe(2 N B" C6 }& P0 U ]3 M6 X
从源文件你可以看到是支持中文的句号断句的。
& L$ n0 A5 p# V* z' }" f! L
c8 Z# ^0 Z8 B8 n5 v+ H4 U6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。. z, s1 J; e( r. N9 R2 K1 E
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。+ W5 `/ z+ j# X6 l: Z4 @. ^, y
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
$ h( J9 j! q; s( h2 Z& y, N* d/ }; O
$ W6 m$ D- i' K
3 c& q7 ^9 {2 n
|
评分
-
查看全部评分
|