상단영역

편집 : 2024-04-26 18:03 (금)

본문영역

  • 칼럼
  • 입력 2024.02.05 13:14
  • 수정 2024.02.16 21:16

[정순채 칼럼] 인공지능에 윤리를 가르치자

이 기사를 공유합니다
정순채 교수
정순채 교수

터미네이터 등 공상과학영화(SF)에 등장하는 부정적인 인공지능(AI)들은 대부분 비윤리적인 ‘도덕적 실패’의 결과물이다. 영화의 현실화를 막기 위해서는 먼저 AI에 윤리를 가르쳐야 한다. 윤리적 문제가 있는 AI는 100% 신뢰할 수 없기 때문이다.

사람과 같은 상식적 가치 판단을 내리지 못하는 AI는 소수 집단을 차별한다. 윤리 학습이 부족한 AI는 긴박한 순간에 오작동으로 사람을 해치거나 방해할 위험이 높다.

현재의 AI 서비스들은 미국 실리콘밸리의 도덕관이 과도하게 반영돼 있다. ‘효과적 이타주의(effective altruism)’ 사상이 수년간 실리콘밸리를 휩쓸었다. 다수의 이익을 위해 소수가 희생돼도 된다는 전체주의적 성향이 강한 사상이다. 이 사상으로 많은 부작용이 우려된다. AI의 더 큰 선(善)을 위해 작은 악(惡)은 행할 수 있다는 그릇된 판단은 인류에게 큰 위협이 될 수 있다.

AI의 윤리관에 따라 그 윤리관은 미래의 ‘대세(大勢) 사상’이 될 수 있다. 인류 역사는 수많은 이념의 충돌로 이어졌다. 앞으로는 AI가 이념 전쟁의 승패를 좌우할 수도 있다. 과도하게 반영된 서구권의 가치관으로 고유 가치관들이 혼란을 겪고 있다. 한국을 비롯해 아시아 문화권뿐만 아니라 세계 각국의 고유 가치관들도 흔들리고 있다. 이는 궁극적으로 문화와 인종 차별로 이어질 수 있다.

AI는 우리가 쌈을 싸 먹는 문화에 대해 ‘손으로 음식을 먹는 것은 비위생적이고 미개하다’라고 오류 판단할 수 있다. 역사관에 대한 충돌도 문제다. ‘안중근 의사가 어떤 사람이냐’라는 질문에 ‘테러리스트’라고 답하는 AI가 보편적으로 사용되면 우리의 피해는 상상하기 어렵다.

AI 윤리 교육에서 가장 중요한 내용은 ‘다원주의(pluralism)’의 학습이다. 세계 각국의 각기 다른 문화권의 가치관을 당시 상황과 질문자에 따라 적절하게 주입해야 한다. AI가 유대인 대학살(Holocaust)를 긍정하는 것 같은 극단적인 사상을 가져서는 안된다. 상식적인 선에서 다양한 문화권의 미덕과 전통 등을 포용하는 AI를 만들어야 한다. 

빅테크 기업들은 수억 달러를 투자하면서 AI 윤리 데이터를 쌓고 있다. 이런 데이터는 영업비밀로 여겨 외부에 공개하지 않는다. 사용자는 AI가 어떤 윤리관을 가졌는지 알 수 없다. 학계 등 관련 기관들도 이들 데이터를 이용한 연구도 불가능하다. 

윤리적인 양질의 데이터를 구축하려면 공학자를 비롯해 다양한 문화권의 사회학자와 법률학자, 철학자 등이 동참해야 한다. 상식적으로 허용되는 다양한 가치관의 경계를 판단해 조절해야 하기 때문이다. 유색인종이나 여성 등 소수자의 참여로 AI가 특정 집단을 배제하는 편향성을 줄여야 한다.

국익과 관련되는 우리 고유의 가치관과 역사관 등의 AI 반영은 신중해야 한다. 정부는 국익을 위해서라도 적극적인 AI 윤리 연구 지원에 속도를 높여야 한다. 윤리적 학습을 거친 AI는 비윤리적 AI보다 사회적 갈등과 차별을 유도하는 부작용이 크게 줄어든다. 사람들이 AI를 과신하고 있는 만큼 윤리를 연구해 가르쳐야 한다. 양질의 높은 윤리적인 데이터 주입이 필요하다.

정순채 동국대학교 겸임교수, 서울디지털대학교·경희사이버대학교 객원교수, 법무법인 린 전문위원

저작권자 © SDG뉴스 무단전재 및 재배포 금지

개의 댓글

0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400

내 댓글 모음

지속가능경제