[e경제뉴스 임명재 기자] 충남 공주대는 의료정보학과 최대선 교수가 얼굴에 몇 개의 점을 붙여 얼굴 인식 AI가 다른 사람으로 인식하게 만드는 데 성공했다고 15일 밝혔다. 즉 공격자 AI를 개발한 것이다.
연구 팀이 개발한 공격자 AI는 얼굴 사진을 입력하면 얼굴에 붙일 점의 위치를 알려준다. ( 해당위치에 스티커를 붙이면 얼굴인식 AI는 전혀 만들어주고 점을 붙일 위치를 알려준다.)
공격자 AI가 알려준 대로 얼굴에 점 스티커를 붙이면 얼굴 인식 AI는 전혀 다른 사람으로 인식하게 된다.
보안 분야에서는 이미지나 보이스에 약간의 변형을 가해 딥러닝 AI를 속일 수 있는 기만 공격이 가능한 것으로 알려져있다.
이번 연구는 이미지 상태가 아닌 실제 얼굴에 약간의 분장을 통해 얼굴인식 AI를 기만할 수 있는 것을 보여준다.
해외에서 표지판에 스티커를 붙여 오인식하게 만드는 연구가 소개된 바 있지만 얼굴 분장을 통한 얼굴인식 AI를 기만하는 사례는 공주대가 최초다.
최 교수는 "기만 공격 이외에도 AI의 오동작을 유발하거나 학습에 사용된 데이터를 추출, 프라이버시를 침해하는 등 여러 가지 AI 보안 취약점이 알려져 있다"며 "최근 AI에 대한 국가적 관심과 산업계의 적용이 활발한 가운데 AI 보안 문제에 대해서도 심각성을 인식, 대비해야 한다"고 말했다.