Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

wavenet-_batch_size 문의 드립니다. #13

Open
pawoo2645 opened this issue Sep 19, 2019 · 1 comment
Open

wavenet-_batch_size 문의 드립니다. #13

pawoo2645 opened this issue Sep 19, 2019 · 1 comment

Comments

@pawoo2645
Copy link

안녕하세요? 질문 드립니다.

지금 이 프로젝트(Tacotron-Wavenet-Korean-TTS)와 Tacotron-Wavenet-Vocoder의 차이점은 무엇인가요?

그리고 이 프로젝트 hparams.py 에는 wavenet_batch_size가 2, Tacotron-Wavenet-Vocoder의 hparams.py의 wavenet_batch_size는 8로 설정되어 있습니다. 이 값은 어떤 값으로 설정해도 상관 없는 건가요?

제 컴퓨터에서는 이 값을 1로 설정해야 돌아갑니다.

2, 4, 8 모두 넣어봤는데 이런 에러가 뜨면서 돌아가지 않습니다.


InvalidArgumentError(see above for traceback): Input
to reshape is a tensor with 32 values, but the requested shape has 64
[[node wavenet / Reshape(defined at / home / wej / AI / wej / 190708_Tacotron2_LJ + SCR + ETRI_DB / wavenet / model.py: 238)]]
[[node wavenet / loss / Mean(defined at / home / wej / AI / wej / 190708_Tacotron2_LJ + SCR + ETRI_DB / wavenet / model.py: 318)]]
NoneType: None

gc_channels, sample size 모두 변경해 보았으나 이 에러는 해결되지 않습니다.

원래 세 명의 영어 여성 화자로 tacotron2 훈련 시킨 multi-speaker의 mel_spectrogram(.npy) 파일은 모두 추출됩니다.

이 글 확인하시면 꼭 답변 주시기 바랍니다.

감사합니다.

@hccho2
Copy link
Owner

hccho2 commented Nov 13, 2019

두 프로젝트의 차이는 tacotron1, tacotron2입니다.

batch_size는 메모리가 허용하는한 변경가능합니다.
에러 메시지만 봐서는, 원인 파악이 잘 안되네요(data feeding쪽 문제 같긴 합니다만).

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants