상단영역

편집 : 2024-04-26 18:03 (금)

본문영역

‘AI윤리기준’ 첫 공개...원칙과 실행방안

이 기사를 공유합니다

[e경제뉴스 임명재 기자] ‘AI가 야기할 수 있는 부작용과 불평등’. AI가 우리 생활속으로 들어와 광범위하게 활용되면서 사람들이 가장 우려하는 대목이다.

AI 개발·활용 방향을 제시하는 'AI 윤리기준'(안)이 처음 공개됐다.

과기정통부는 23일 대통령 직속 4차산업혁명위원회 전체회의에서 AI 윤리기준을 공개했다. AI 개발 기업은 물론 이를 활용하는 이용자와 정부 등 모든 이해관계자가 지켜야하는 원칙과 실행 방안을 담았다.

주요 선진국들은 AI윤리기준을 만들었으며 EU는 ‘신뢰할 수 있는 AI윤리 가이드라인’을, OECD는 AI권고안을 발표했다.

우리나라도 이런 추세에 맞춰 각계의 의견을 수렴해 윤리기준 마련을 진행해왔다.

정부가 발표한 'AI 윤리기준'은 '사람 중심의 인공지능'을 위한 3대 기본원칙과 10대 핵심 요건을 담고 있다.

3대 기본원칙은 AI가 인간성(Humanity)을 구현하기 위해 AI의 개발·활용 과정에서 ▶인간의 존엄성 ▶사회의 공공선 ▶기술의 합목적성을 지켜야 한다는 것이다.

3대 기본원칙을 실현할 수 있는 10대 핵심 요건은 AI 전체 생명 주기에 걸쳐서 사람들이 지켜야 하는 조건들을 제시한다. 인권보장·프라이버시 보호·다양성 존중·데이터 관리·안전성 등이 대표적이다.

AI 윤리기준은 "AI를 개발하고 활용하는 전 과정에서 개인의 프라이버시를 보호해야 하고, 성별·지역 등 개인 특성에 따른 편향과 차별을 최소화해야한다"는 점을 강조하고 있다.

또  "개인정보 등 데이터를 목적 외 용도로 활용하지 말아야 하며, 데이터 편향성을 최소화하기 위해 데이터 품질과 위험을 관리해야 한다"는 데이터 관리 규정도 두었다.

또 AI를 만든 개발자와 제공자의 책임도 담았다. 10대 핵심 요건 중에 '책임성'을 언급한 부분에서는 "AI 개발 및 활용 과정에서 책임주체를 설정해 피해를 최소화해야 한다"며 "AI를 설계하는 개발자, 서비스 제공자, 사용자 간의 책임 소재를 명확하게 해야 한다"고 강조했다.

AI를 활용하는 과정에서 문제가 발생했을시 사용자가 AI 작동을 제어할 수 있어야 한다.

 

저작권자 © SDG뉴스 무단전재 및 재배포 금지

개의 댓글

0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400

내 댓글 모음

지속가능경제