Imagine : interaction-based real-time music generation engine for games

조금씩 작업해오던 real-time music generation engine을 얼추 마무리해서 CHIPLAY 2017에 논문제출. 현재는 작곡부분은 모두 rule-based 로 구현하고 있지만, 최종 목표는 머신러닝 작곡 기법과 결합하는 것. (modified ver)CHIPLAY2017_IMAGINE- Interaction-based music generation engine for real-time changes in game states and parameters  



딥러닝 복습 겸 듣고 있는 강의 과제로 제출한 custom gradient descent method. Just a small idea... 깃헙에 간단히 SGD/Adagrad/Adam/Momentum/Nesterov/RMSProp/CrayonGrad을 비교 구현해놓았다.   CrayonGrad Our object : deal wisely with unpredictable sizes of descending steps for all dimensions’ gradients to predict the most suitable direction to the (local) optima. Mostly, problem happens during the beginning… Continue reading CrayonGrad

인공신경망 자동작곡 ANNA ver1.0

Automatic music composition experiment 인공신경망 기법을 이용한 영상 배경음악 자동작곡 시스템 참 아쉬움이 많이 남는 프로젝트. 많이 개선해서 결과가 좋으면 깃헙에도 공유하고 해야지 하고 덮어 놓은지 좀 오래되었다..   Automatic music composition experiment scale-based melody and chord generation using charRNN combined with some additional rule-based instrument arrangements with audio output rendering using Kontakt samples. Used… Continue reading 인공신경망 자동작곡 ANNA ver1.0

Rhythm Generation for real-time accompaniment of game controls/states (poster)

Rhythm Generation for real-time accompaniment of game controls/states (poster) 실시간 게임 환경에 반응하는 음악 재생 모듈에 관한 간단한 포스터/데모 제작. 음악 모듈은 시간이 모자라서 결국 대강 마무리 지었는데 제대로 만들지 못한 것이 두고 두고 아쉽다.. 2016 학생부 우수 포스터 선정