|
|
本帖最后由 nanimarcus 于 2023-6-4 02:24 编辑 ( F; n7 B, p/ a
% B7 i1 e+ n/ I; f) O
借着 chatGPT 这股热潮研究了一下 Whisper,学名叫 automatic speech recognition (ASR) ,就是转换声音到文字的。- g# Y8 `( D* `7 n
效果我是很满意的,唯一不满的是速度,在六年前的主流显卡上基本上是一倍速,基本上只用在自己特别喜欢的媒体文件上了。
6 x( l1 n, P: t0 l5 X6 i' U----------------------------------------
8 a# j0 Q J; K显然不满意的不是我一个,活雷锋很快就出来了,名字很谦虚也很霸气 faster-whisper。
9 [9 @- c" r6 p$ M+ X, w7 o9 J2 K在六年前主力显卡3G内存上,model small,能跑到12倍速,这个是相当满意了。5 M* |% w% t% w1 V' M, e/ W
----------------------------------------: T5 D3 p) `% F1 H* Y& y
https://github.com/guillaumekln/faster-whisper
( H" D) d2 O! ^/ H安装如下:, t- g2 L0 c- O$ Z
1, Windows 105 n; }3 G; C8 z
2, Python 3.10.11
, y9 J. s- N7 y4 N9 j0 J3, CUDA 12.11 w0 N: U- U% T7 }
4, 在python 3 中安装
0 a9 S$ n; G$ O7 ypip install setuptools-rust torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
/ z8 r3 O" J7 m. M5 ~1 m2 O这一步最后一个安装文件 cu117-cp310-cp310-win_amd64.whl 大小2343.6 MB,如果没显示,你得检查一下你的环境。9 _% u: ]/ k4 V3 w' e
5,pip install -U openai-whisper
2 D9 E" r+ m" d: X/ m这是向whisper 致敬,可以不装
* {% s# D. x8 l( H1 f) Z o) {6,pip install faster-whisper
: a0 z9 u Y- J# \% ?+ G+ k---------------------------------------- \: A6 e6 v, I2 G3 S
whisper 我用的命令行,faster-whisper 我用的是python。1 j/ U' z9 V* ^7 s9 V0 X
下面给出了部分参考代码,根据主页上的参考代码我做了修改,但这个不是能运行的代码:# l# C' K6 T t+ N4 T {
+ Z7 ?- e8 N f; e/ Z6 q----------------------------------------& T' Q4 o& P! p, |
; R' O! m$ }+ F" u+ I6 X! U7 Z
from faster_whisper import WhisperModel
1 U/ u6 H$ q% |% h; ] e% n5 f# ^* _4 g& c7 V. g
model_size = "small"
* |' G- Q; @& o8 x; h, }; X# S6 q/ G+ A! Z% P8 L
model = WhisperModel(model_size, device="cuda", compute_type="int8")8 b2 O5 t9 W E& D; W2 H
! w9 i* u, Q& Z* k
segments, info = model.transcribe(
! K2 F! N' A* d sourceFileName,
4 d2 `9 j ]' z! P& c( g5 N3 l beam_size=5, 0 O8 R- y* \: d- v. l* b1 S1 i8 V
language="en",
& Y. m& e2 j; l8 F$ E4 P. t3 `5 s task="transcribe", - n0 N6 k5 O. p( b1 N
word_timestamps=True,
8 I7 c. A2 n/ l7 |% | initial_prompt = "Hello, welcome to my lecture.")
r+ w" e7 w( q$ [8 O @ v5 {, y. P: F; k" H
for segment in segments:5 a9 z( B& ~5 K
print("[%.2fs -> %.2fs] %s" % (segment.start, segment.end, segment.text))
7 p. K. s' F8 l9 w* ]1 e3 e4 s3 z$ }1 t
for word in segment.words:1 N) W) Z4 o, p: h1 B$ X
" Q( G0 b4 i" E1 N- ^----------------------------------------
% Q* q* q- h4 s: U; g k: Z2 _1 T8 U
代码说明:
" B3 I( I3 M$ u) i1,model.transcribe 只是建立了模型,并没有运行,运行 是从 for segment in segments: 这一句开始的。) _9 \' o% c& A7 m$ }! v
但是这一步很重要(废话),我的程序有时候会无征兆退出就是在这一步,没有任何错误信息,倒是Windows 侦测到,但也没给出有意义的信息。/ j, V8 D0 C7 [
2,segment 本身是很粗糙的,做字幕勉强能用。, l2 c+ E$ y4 ]0 b! G( {
3,word 才是真正的精确控制的,本身带时间轴,所以要做比较好的字幕,必须用到word。
" u: I5 r7 |$ ?* l8 |4,word 里面是包含标点符号的,也就是说标点符号不是独立的,是附着在前一个word中/ n5 _8 i3 m4 w4 _7 r: {+ ?; |5 a" ?) I
比如 "faster." 这个句号是和前一个单词 faster 放在同一个 word 里面的。0 l3 h4 V9 D* R, S7 X3 G
5,model.transcribe 中参数说明:
; ?5 z8 o7 T5 w你要是对 whisper 的参数有所了解的话,基本上这些参数就是对应whisper 的参数
* j9 w; \9 S- ~其中
3 O4 A9 }8 K. j- j6 D$ C word_timestamps=True,
( ?# a" J) r+ d: k- m9 p6 ?/ O保证了你能拿到 word,否则是拿不到的
, @: L3 I8 e* R6 ?+ c% J$ l* u initial_prompt = "Hello, welcome to my lecture.")
9 B3 T1 v" M: |: c$ y保证能尽可能准确的断句 punctuation,但是不是决定性的。: R0 V2 ` B0 m7 i
其他参数可参考源文件:
4 N" ?3 W/ @: B8 Bhttps://github.com/guillaumekln/ ... isper/transcribe.py' z9 l* a8 E+ x! e, Y. J8 s$ n
152 def transcribe(0 S; `+ ~6 y# u" _' F
从源文件你可以看到是支持中文的句号断句的。
6 z6 b7 p+ b# I( P# T' Q5 F0 e1 K, j* b7 c1 m' G4 h
6,如果要尽可能准确的 punctuation,根本办法是用比较大的模型 medium,或者更大。) v, H% c6 E9 W9 \
7,我自己观察一个小时之内可以保证断句准确,再长就很可能不行,所以我的办法是切割文件到一个小时,识别后再聚合,效果不错。6 ~2 b" h, D, e, T
8,faster-whisper 会上传一些信息,检测到不停的使用网络,曾经有一次代码出错就是访问网络,你要是有洁癖就把网络暂时给关了。
" s6 v0 J) O+ w+ g6 h+ \: K- \" p% Z( M
' Y; k9 W4 n; E: s
- Q [, X3 s9 S
|
评分
-
查看全部评分
|