쓰쿠바대학의 야마가타 신이치 준 교수, 오사카대학(연구 당시)의 가와라 요시 신준 교수는, 사람이 느끼는 음악의 감성을 수치화해, 연주의 유사성을 수치로 비교할 수 있는 인공 지능 기술의 개발에 성공했다.
음악성의 판단은 통상 아티큘레이션(프레이즈내의 선율을 단락, 형태나 의미를 주는 것), 듀너 미크(강약법), 프레이징(프레이즈의 절단 방법) 등 연주기교에 관한 차이에 근거해 사람의 감성 에 의해 이루어집니다.만약 이러한 판단 기준을 수치화할 수 있다면 감성의 디지털화가 가능해지고 새로운 커뮤니케이션 수단의 기반이 될 것으로 생각된다.그러나 지금까지 이러한 요소를 컴퓨터가 인식하고 이해할 수 없었다.
본 연구그룹은 인간의 감성인 '음악의 표현'에 대해 컴퓨터에 연주의 차이를 인식시켜 그것을 수치로 나타낼 수 있는 인공지능 기술의 개발을 목표로 연구를 계속해 왔다.그리고 이번, 피아노의 연주를 MIDI(Musical Instruments Digital Interface)라고 불리는 표준 규격으로 디지털화해 받아들여, 기준이 되는 악보대로의 연주 데이터와의 차이를 취하는 것으로, 사람이 느끼는 연주 표현의 차이를 정량화 할 수 있다는 것을 발견했다.이것에 의해, 「분위기가 비슷하다」라고 사람이 느끼는 감성을 수치화해, 자신의 연주는 이 사람과 비슷하다고 하는 비교를 할 수 있게 되었다.
음악표현의 수치화가 가능하게 된 것으로, 새로운 인공지능의 응용으로 향할 수 있다고 연구그룹은 말한다.예를 들어, 연주 데이터를 사용해 자신과 같은 음악성이 있는 사람을 인터넷으로 검색해, 감성으로의 표현으로 새로운 커뮤니티를 만드는 등, 음악에서의 감성을 사용한 새로운 커뮤니케이션 수단을 구축할 수 있게 된다고 하고 있다 .