릿쿄 대학 대학원 인공 지능 과학 연구과의 이시카와 마노스케 특임 준 교수 등과 주식회사 두조에 의한 연구팀은, 「AI의 판단 결과가 신뢰할 수 있을까」를 직감적으로 판단할 수 있는 새로운 「설명 가능 AI」 기술을 개발했다고 발표했다.
최근의 AI 기술의 발전은 눈부시고, 다양한 AI 서비스가 제공되게 되어 있지만, AI의 판단 결과를 정말로 믿을 수 있을지 모르기 위해, AI 도입을 주저한다는 의견도 있다.이에 대해 AI의 판단에 대한 설명과 해석을 하고 AI의 판단에 투명성을 갖게 하는 '설명가능 AI'의 연구분야가 주목을 받고 있다.
설명 가능한 AI의 대표적인 수법에는, 예를 들면 「당신은 병의 리스크가 높다」라고 하는 AI의 예측에 대해, 그 판단에 크게 영향을 준 것이 「혈압이 높은 것」이라고 설명하는 바와 같이, 영향력이 큰 요소를 추출하는 방법이 있다.한편, 본 팀은 이러한 수법과는 다른 「데이터 중심」의 입장으로부터의 접근을 시도해, AI의 판단을 「AI가 구체적으로 어떤 데이터를 학습했는지」로 설명하는 새로운 수법을 개발 했다.
이 방법은, 예를 들면 「어떤 대상이 고양이이다」라고 하는 AI 판단이 신뢰할 수 있는지를 확인하기 위해서, 「AI가 지금까지 본 (학습한) 「고양이」 중에서 가장 비슷한 것 」를 제시하는 것과 같이, 지금까지 학습한 데이터 중에서 AI가 가장 가깝다고 판단한 것을 제시하는 설명 가능 AI이다.연구팀은 이를 AI가 '내가 아는 것'을 제시한다는 의미에서 What I Know(WIK)라고 명명했다.
인공위성에 의한 지구관측 이미지의 분류 문제로 WIK의 유효성을 검토한 결과, WIK는 식별 대상의 위성 이미지와 유사한 이미지를 제시할 수 있었다.즉, AI가 위성 화상의 식별을 위해서 충분한 학습을 행하고 있어, 판단 결과가 신뢰할 수 있을 것이라고 하는 것이 설명되었다고 할 수 있다.
연구팀은 WIK가 곧바로 많은 사회과제에 적용 가능하다고 생각하고 있으며, 유효성의 검증을 계속하면서 활용을 추진해 나간다고 한다.