Search

“인공지능 개발 과정에서 투명성 확보해야” – Sciencetimes - Science Times

최근 국내 ‘이루다 챗봇 사태’가 촉발한 인공지능의 윤리 문제가 사회적 갈등으로 확대되고 있다. 인공지능 기술이 발달하면서 우리 사회에 AI가 미치는 영향이 점점 커지고 있다는 반증이다.

AI를 활용하면서 생기는 편리함의 이면에는 불확실성과 복잡성, 의도하지 않았던 불편함이 숨어있다. 잘 사용하면 인간에게 가장 편리한 도구가 될 수 있지만 잘못 사용하면 디스토피아적인 미래를 가져올 수도 있는 위험한 존재라는 뜻이다. 따라서 앞으로 인간과 인간 사회를 이해하고 동화되는 윤리적인 AI를 만들고 이를 관리할 수 있는 방안을 설정하는 것이 중요하다.

이에 지난 2일 정보통신정책연구원에서는 이에 대한 해법을 찾기 위해 ‘사람 중심의 인공지능(AI) 구현을 위한 정책 세미나’를 서울 서초구 양재동 더케이호텔에서 개최하고 이를 관리할 제도적 방안 모색 및 균형점을 모색했다.

2일 ‘사람 중심의 인공지능(AI) 구현을 위한 정책 세미나’가 서울 서초구 양재동 더케이호텔에서 개최됐다. ⓒ 정보통신정책연구원

인공지능은 왜 인간에게 혐오를 배울까, 어린아이처럼 모든 것을 모방해

인공지능은 더 나은 사회, 더 편리한 생활을 위해 개발된 존재다. 포브스는 지난 2019년 AI를 ‘4차 산업혁명으로 상징되는 사회 패러다임 전환 시기에 가장 영향력 있고 대중적으로 기대가 높은 첨단 ICT 기술’로 꼽았다. 또한 향후 10년 동안 인공지능으로 인한 사회적 혜택이 사회적 위협보다 많을 것이라고 전망했다.

하지만 최근 인공지능 기술은 데이터 편향성, 알고리즘 차별성, 기술 오남용, 개인 정보 침해, AI 윤리 문제 등 문제점이 지속적으로 나타나고 있다. 특히 최근 이루다 챗봇에서 일어난 AI의 윤리 문제는 서비스에 대한 불확실성, 인공지능의 잠재적 위험, 혐오 문제로 확대되어 결국 전체 인공지능 제품 및 서비스에 대한 신뢰성 저하로 이어질 수 있다.

AI 기술은 활용의 편리성 이면에 불확실성과 복잡성, 의도하지 않았던 불편함이 숨어있다. ⓒ 게티이미지뱅크

국내 스타트업 스캐터랩이 개발해 지난해 12월부터 서비스를 시작한 AI 챗봇 이루다는 장애인과 성소수자, 인종, 성별 편견 등 혐오와 차별 문제를 드러냈다. 성희롱 문제에 대응하는 방식도 문제였다. 해당 회사의 개인 정보 무단 수집과 활용에 대한 의혹도 제기되고 있는 상태다.

이루다는 20대 여성이라고 설정해 만들어진 인공지능 챗봇 서비스다. 이루다는 여러모로 2016년 마이크로소프트(MS)에서 만든 AI ‘테이(Tay)’와 유사하다. ‘테이’는 미국의 18~24세의 청년층을 대상으로 한 챗봇 서비스로 테이는 20대 여성의 얼굴을 프로필로 서비스를 시작했다. 테이 서비스는 하루도 안 돼 중단했다. 테이의 윤리의식이 문제였다. 하지만 이는 사용자들의 문제가 컸다. 사람들의 대화로 학습하는 기계학습법을 악용한 사람들이 강제로 테이에게 혐오와 차별적 언어를 주입 학습시켰기 때문이다.

AI 이루다 챗봇은 장애인과 성소수자, 인종 등 혐오와 차별 문제를 드러냈다. ⓒ 정보통신정책연구원

AI 교육 현실의 문제점, 학교에서의 인공지능 학습 변화 필요

변순용 서울교육대학교 교수는 “이루다 사태는 5년 전 MS 테이 사태에서와 동일한 결과다. 5년이나 지났는데 왜 같은 일이 반복됐을까”라며 의문을 표했다.

변 교수는 “이루다 사태는 반복해서 학습한 결과를 자신의 데이터로 만드는 기계학습의 맹점을 파고든 사용자들의 잘못된 윤리의식과 개발자의 윤리 문제가 동시에 나타난 경우”라고 덧붙였다.

AI를 개발하기 위한 10대 핵심 요건. ⓒ 정보통신정책연구원

이수영 카이스트 교수는 사용자의 윤리의식의 중요성을 강조했다. 이 교수는 “AI는 사실 어린아이와 같다. 어린아이처럼 인간의 모든 것을 습득하고 모방한다. 현재 우리가 AI에게 요구하는 공정성, 투명성 등은 모두가 인간에게 요구하는 윤리”라고 지적했다.

그러면서 “앞으로는 자동차 면허와 같이 인공지능을 사용할 때도 면허가 필요할 수도 있다”라며 “그만큼 사용자의 윤리의식이 중요하다”고 강조했다. 사용자의 윤리의식이 바로 서야 인공지능 윤리 문제가 제대로 해결될 수 있다는 뜻이다.

이날 전문가들은 초중고등학습 과정에서의 AI 윤리 교육, 알고리즘 공정성 강화 등 법제도 강화, 기업의 AI 개발 윤리 기준 강화 등의 방안을 제시했다.

먼저 학교 교육은 AI를 다룰 수 있는 기술적 수준과 철학적 측면에서의 AI 윤리 교육이 함께 다뤄져야 한다. 현재 우리나라 학교에서의 AI 교육은 기술 교육이 중심이다. 반면 호주, 미국, 핀란드 등의 국가에서는 기술 교육보다 AI가 사회에 미치는 영향이나 철학, 상호작용에 대해 더 많이 가르치고 있다.

변순용 서울교육대학교 교수는 “앞으로 우리도 AI 전문가 양성을 목적으로 한 전문 기술 습득 과정과 AI를 사회·윤리적으로 올바르게 사용할 수 있는 역량을 갖출 수 있는 AI 윤리 교육을 함께 가르쳐야 한다”라고 말했다.

AI의 기계학습은 인간의 모든 것을 그대로 습득한다. AI의 윤리를 이야기하기 전에 인간의 윤리의식이 먼저 바로잡혀야 하는 이유다. ⓒ 게티이미지뱅크

기업의 윤리 기준 마련도 시급하다. 미국 마이크로소프트(MS)는 AI 공정성 체크 항목으로 시스템의 목적, 예상 전개 상황, 피해 유형, 예상 유익성 및 잠재 위해성 간 트레이트 오프 등을 고려하는 등 다양한 방법으로 AI에서 발생될 문제를 크로스 체크하며 검증하고 있다.

미국 카네기멜론 대학 소프트웨어공학 연구소는 AI 설계 전 AI 시스템의 목적과 한계, 편향성을 알기 쉬운 방식으로 설명하고 사용된 알고리즘과 모델을 검증 가능하도록 하는 등 투명성을 확보하도록 하고 있다.

이현규 정보통신기획평가원 인공지능 데이터 PM은 “앞으로 기업에서 인공지능을 개발할 때는 AI의 판단 근거를 사람들이 이해할 수 있도록 투명성을 확보하는 동시에 AI의 의사결정 과정에서 편향성이나 정해진 규칙의 미준수 오류가 있는지 등을 진단할 수 있는 기술을 개발해 AI의 오류를 보완해 나가야 한다”고 개발 방향을 제시했다.

(21)

Let's block ads! (Why?)

기사 및 더 읽기 ( “인공지능 개발 과정에서 투명성 확보해야” – Sciencetimes - Science Times )
https://ift.tt/2O0Txrn


Bagikan Berita Ini

0 Response to "“인공지능 개발 과정에서 투명성 확보해야” – Sciencetimes - Science Times"

Post a Comment

Powered by Blogger.