공지 및 소식

      2021.01.10
      인터뷰 [언론보도-김재인][경향신문 2021.01.10] 여성·인종·소수자 차별 민낯 보여준 챗봇 ‘이루다’…성희롱 논란이 ‘AI 윤리’ 문제로 확산
      여성·인종·소수자 차별 민낯 보여준 챗봇 ‘이루다’…성희롱 논란이 ‘AI 윤리’ 문제로 확산

      지난달 출시된 인공지능(AI) 대화 서비스 챗봇 ‘이루다’를 둘러싸고 논란이 뜨겁다. 지난 주말 이루다에 대한 이용자들의 성희롱·성착취로부터 시작된 논란은 AI에 의한 소수자 차별과 AI의 윤리는 물론 개인정보 활용의 문제로 확장되고 있다. 

      (중략)

      인간이 아닌 존재인 AI에 대한, AI에 의한 폭력은 왜 나쁠까. AI 윤리를 연구하는 김재인 경희대 비교문화연구소 교수는 ‘메아리’에 비유했다. AI에 대한 폭력이 인간에게 되돌아온다는 것이다. 김 교수는 “몇몇 이용자가 AI에게 희롱과 착취를 학습시키면 다른 이용자가 비슷한 방식의 출력물을 얻어낼 수 있다. 미성년자 또는 폭력적 대화를 원치 않는 사람조차 (그런) 상황에 놓이게 되는 것”이라고 말했다. 그는 “AI는 중립적일 것이라는 기대와 달리, 사회적 편향을 그대로 흡수해 그 차별과 편견을 세련되게 가공, 제공하기 때문에 오히려 차별과 편견을 더 강화한다”고 말했다. (생략)

      최민지 기자 ming@kyunghyang.com
      원문보기: https://n.news.naver.com/article/032/0003053215