-
-
Notifications
You must be signed in to change notification settings - Fork 235
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
insanely fast Whisper error #486
Comments
안녕하세요. 버그 재현을 위해 더 상세한 로그가 있으면 좋겠는데요, 올려주신게 터미널에 보이는 전부 인가요?
로그의 시간대로 짐작 가는 바로는 모델 로딩에 어려움을 겪고 있는 것 같아요. 혹시 사용하시는 GPU의 VRAM 이 어떻게 되시나요? |
gtx 1660 ti에 6gb입니다 미디엄 사용하고 있고요 |
방금 다시 한번 시도해보니 C:\Users\sgwli\OneDrive\바탕 화면\ai 이렇게 뜨고 무한으로 진행중입니다 ㅠ |
문제가 없다면 |
이미 기본값인 faster-whisper을 사용하고 있기는 한데.. 좀 느린 거 같아서요 그래서 insanely를 사용해보려고 했는데 어쩔 수 없네요 |
GPU 가 좀 느린 감이 있다면 코랩에서 무료버전 런타임을 사용하시는게 좋으실 수도 있어요. "T4 GPU" 런타임 (무료) 을 선택하신 후 셀을 순서대로 실행하시면 됩니다. 파일 용량이 커서 업로드에 시간이 걸린다면 구글 드라이브에 먼저 업로드 후 해당 폴더 경로를 "Input Folder Path" 에 입력하는 방식으로 사용할 수도 있어요. |
자막\Whisper-WebUI-Portable-Windows\Whisper-WebUI\venv\Lib\site-packages\transformers\models\whisper\generation_whisper.py:573: FutureWarning: The input name
inputs
is deprecated. Please make sure to useinput_features
instead.warnings.warn(
Transcribing... ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 0:00:01You have passed task=transcribe, but also have set
forced_decoder_ids
to [[1, None], [2, 50359]] which creates a conflict.forced_decoder_ids
will be ignored in favor of task=transcribe.Transcribing... ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 0:00:43Passing a tuple of
past_key_values
is deprecated and will be removed in Transformers v4.43.0. You should pass an instance ofEncoderDecoderCache
instead, e.g.past_key_values=EncoderDecoderCache.from_legacy_cache(past_key_values)
.Transcribing... ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 0:00:49The attention mask is not set and cannot be inferred from input because pad token is same as eos token. As a consequence, you may observe unexpected behavior. Please pass your input's
attention_mask
to obtain reliable results.Transcribing... ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 0:03:33From v4.47 onwards, when a model cache is to be returned,
generate
will return aCache
instance instead by default (as opposed to the legacy tuple of tuples format). If you want to keep returning the legacy format, please setreturn_legacy_cache=True
이런식으로 무한 로딩이 되는데 어떡하죠??
The text was updated successfully, but these errors were encountered: