View Code? Open in Web Editor
NEW
This project forked from choihkk/pitch-control-vits
License: MIT License
Python 1.25%
Jupyter Notebook 98.72%
Cython 0.01%
Dockerfile 0.02%
pitch-control-vits's Introduction
- vits 오픈 소스를 활용하여 Pitch를 제어할 수 있는 모델을 구성하고, VCTK 데이터셋을 사용해 학습합니다.
- VCTK 데이터셋은 기본적으로 48kHz인 점을 감안하여 22kHz로 resampling할 수 있도록 utils.load_wav_to_torch()를 수정했습니다.
- conda 환경으로 진행해도 무방하지만 본 레포지토리에서는 docker 환경만 제공합니다. 기본적으로 ubuntu에 docker, nvidia-docker가 설치되었다고 가정합니다.
- GPU, CUDA 종류에 따라 Dockerfile 상단 torch image 수정이 필요할 수도 있습니다.
- VCTK 데이터셋은 ASR 모델을 활용한 Auto-preprocessing 과정을 거친 후 학습에 사용되었습니다.
- download dataset - https://www.kaggle.com/datasets/showmik50/vctk-dataset
- git clone https://github.com/choiHkk/pitch-control-vits.git
cd /path/to/the/pitch-control-vits
docker build --tag pitch-control-vits:latest .
nvidia-docker run -it --name 'pitch-control-vits' -v /path/to/pitch-control-vits:/home/work/pitch-control-vits --ipc=host --privileged pitch-control-vits:latest
cd /home/work/pitch-control-vits/monotonic_align
python setup.py build_ext --inplace
cd /home/work/pitch-control-vits
python train_ms.py -c ./config/vctk_base_hifigan.json -m vctk_base_hifigan
- arguments
- -c : config path
- -m : model output directory
- (OPTIONAL)
tensorboard --logdir=outdir/logdir
- VITS
- VISinger
- Period-VITS
- FastSpeech2
- HiFi-GAN
pitch-control-vits's People
Contributors