본문 바로가기

AI 이야기

한국어 가사 데이터 KoGPT2 Fine Tuning

결과물들

 

gyunggyung/KoGPT2-FineTuning

한국어 가사 데이터 KoGPT2 Fine Tuning . Contribute to gyunggyung/KoGPT2-FineTuning development by creating an account on GitHub.

github.com

 SKT-AI에서 약 20GB의 한국어 데이터를 Pre-Training 시킨 KoGPT2를 학습해서 멋진 결과를 만들었다. 첫 번째로 가사 작사를 위해서, 정제된 한국어 가사 데이터 62MB를 Fine-tuning 한 결과물이다. 다양한 한국어 가사를 학습한 결과를 확인할 수 있다. 

Colab을 통한 학습

 먼저 내 노트북인 2070 GPU와 구글의 Colab을 사용하여 학습했다.

Colab을 통한 Generator

 생각보다 generation 작업도 잘 됐다.