5월 24일 국내 언론사 ‘동아일보’에 Motion AI 팀의 캐릭터 애니메이션 생성 기술에 대한 기사가 올라왔습니다. Lip Sync 프로젝트는 사람의 음성에 맞춰 캐릭터의 표정을 자동으로 생성하고 자연스럽게 변화시키는 기술로써, 현재 Motion AI 팀의 주력 프로젝트 중 하나입니다.
본문
20일 경기 성남시 분당구 엔씨소프트 본사 5층 인공지능(AI)센터의 한 회의실. 컴퓨터 모니터에 3차원(3D) 그래픽으로 만든 한 여성 캐릭터의 얼굴이 떠 있었다. “몬스터가 다가오고 있습니다”라는 다급한 목소리의 음성이 흘러나오자 화면 속 캐릭터의 입술이 들썩이며 긴장한 표정을 지었다.
엔씨소프트 AI센터 게임AI랩 연구원들이 올해 안에 실제 게임에 적용하는 것을 목표로 개발하고 있는 ‘보이스 투 애니메이션(Voice to animation)’이다. 음성에 맞춰 캐릭터의 표정을 컴퓨터가 자동으로 생성하는 AI 기술이다. 수작업으로 하면 1분짜리 대화에 필요한 표정을 그리는 데만 하루가 넘어갔지만 이 기술이 적용되면 시간을 크게 줄일 수 있을 전망이다.
…
기사 원문 링크: 음성 따라 캐릭터 표정 변해… AI가 만드는 게임 시대 성큼