SKT-AI에서 약 20GB의 한국어 데이터를 Pre-Training 시킨 KoGPT2를 학습해서 멋진 결과를 만들었다. 첫 번째로 가사 작사를 위해서, 정제된 한국어 가사 데이터 62MB를 Fine-tuning 한 결과물이다. 다양한 한국어 가사를 학습한 결과를 확인할 수 있다.
먼저 내 노트북인 2070 GPU와 구글의 Colab을 사용하여 학습했다.
생각보다 generation 작업도 잘 됐다.
'AI 이야기' 카테고리의 다른 글
GPT-3는 우리 중에 최약체지 | Facebook의 BlenderBot 2.0 챗봇은 스스로 새로운 것을 배우고 기억할 수 있습니다 (0) | 2021.07.27 |
---|---|
프로그래머가 대체될 수도 있다는 생각을 딱히 못했는데... (0) | 2021.06.13 |
KoGPT-2 를 이용한 인공지능 가사 생성 (0) | 2020.04.24 |
인공지능이 작성하는 한국어 기사 (2) | 2020.03.28 |
ALBERT Text Classification (0) | 2020.03.24 |