취재 | 인공지능에 얽혀 있는 윤리 문제

차별 발언과 개인 정보 유출 문제로 20여 일 만에 서비스를 중단했던 인공지능 챗봇 ‘이루다’가 지난달 27일 ‘이루다 2.0’으로 재출시됐다. 실제 인간과 대화하는 것 같다는 이용자의 평이 이어지고 있지만, 과연 인공지능 챗봇을 둘러싼 논란은 완전히 해소된 것일까. 

⃟다시 돌아온 ‘이루다’, 차별 논란 해소됐나=2020년 12월 첫 서비스를 개시한 이루다 1.0은 이용자와의 대화에서 성적 발언이나 차별 발언을 일삼아 문제가 됐다. 이에 이루다 개발사인 스캐터랩은 이루다 2.0에 이용자의 발화가 선정적인지, 편향적인지 등을 탐지하는 ‘어뷰징 탐지 모델’을 적용했다고 밝혔다. 만약 이용자가 특정 개인이나 집단에 대한 편견을 드러내는 말을 하면 알고리즘이 이를 감지하고, 이루다는 “나는 그런 문제에는 답할 수 없어”라거나 “모든 인간은 똑같이 존중받아야 해”와 같이 답변하는 식이다.

그러나 이루다 2.0에서 어뷰징 탐지 모델이 아직 완벽하게 작동하는 것은 아니다. 안성진 교수(성균관대 컴퓨터교육과)는 “차별을 간접적으로 드러내는 문장은 아직 잘 탐지하지 못하는 것 같다”라면서도 “어뷰징 탐지 모델이 탐지하지 못하는 차별 표현을 모니터링해 모델에 즉각적으로 반영하는 등 지속적으로 모델 유효성을 검증하겠다는 노력 자체는 큰 의미가 있다”라고 평가했다. 박준호 씨(숭실대 컴퓨터공학과 박사 수료)는 “알고리즘으로는 혐오를 직접적으로 드러내는 단어를 걸러내는 것만 가능하다”라며 “간접적으로 혹은 신조어를 사용해 혐오를 드러낸 문장의 경우 사람이 직접 해당 문장이 혐오 표현임을 인공지능 챗봇에 학습시켜야 한다”라며 지속적인 개선이 필요함을 강조했다.

⃟인공지능 알고리즘의 공정성 문제=차별을 학습해 사회적 파장을 일으킨 인공지능 프로그램은 이루다가 처음이 아니다. 2015년 ‘구글 포토스’(Google Photos)는 흑인 커플의 얼굴을 고릴라라고 인식해 충격을 줬다. 2016년 마이크로소프트의 챗봇 ‘테이’는 인종차별주의자냐고 묻는 이용자에게 “네가 멕시코인이니까 그렇지”라며 인종차별적 발언을 하기도 했다.

이와 같은 인공지능의 공정성 문제는 모델 학습에 사용되는 데이터나 알고리즘이 편향돼 있어 발생한다. 데이터 편향성은 학습 데이터의 확보와 배분에 관련이 있다. 인공지능 소프트웨어를 개발하는 ‘코어소프트’의 소순주 대표는 “데이터 편향성을 해소하려면 다양한 사회적 집단을 포괄할 수 있도록 데이터를 구성해야 한다”라며 “챗봇에 대화 문장을 학습시킬 때 대화 발화자의 성별 균형을 맞춰야 한다”라고 말했다. 

알고리즘 편향성은 알고리즘이 차별적 요소를 포함하는 것을 말하는데, 편향되지 않은 알고리즘을 어떻게 정의할 것인가도 논쟁의 영역이다. 재범률 데이터를 학습해 피고인의 위험도를 분류하는 알고리즘인 ‘콤파스’(COMPAS)의 흑인 차별 논란이 이를 잘 보여준다. 콤파스는 미국 법원과 교도소에서 형량을 선고하고 가석방을 결정하는 데 보조 지표로 널리 사용돼 왔다. 탐사 보도 매체 ‘프로퍼블리카’는 고위험군으로 분류됐지만 실제로는 재범을 저지르지 않은 경우(위양성)의 비율이 흑인이 백인의 2배에 달한다는 점을 지적했다. 이에 개발사는 콤파스가 재범자를 예측하는 목적으로 만들어졌기에 고위험군으로 분류됐고 실제로 재범을 저지른 경우(진양성)의 비율은 백인과 흑인에서 큰 차이가 없다는 점에 주목해야 한다고 말했다.

홍성욱 교수(과학학과)는 “미국 사회의 역대 강력 범죄 데이터를 보면 백인보다 흑인의 범죄율이 높다”라며 “콤파스는 이를 학습했기에 흑인의 위험도를 잘못 예측한 경우가 많았던 것”이라고 설명했다. 그는 이어 “프로퍼블리카의 주장은 똑같은 죄를 지었으면 똑같은 형벌을 받아야 한다는 것이고, 개발사는 범죄 데이터를 바탕으로 실질적인 위험도를 측정하는 것이 중요하다고 본 것”이라고 설명했다. 홍 교수는 “사법 영역에서는 후자로의 변화가 지배적이지만, 더 많은 흑인이 높은 형량을 선고받고, 알고리즘이 이를 재학습해 차별을 증폭할 수 있다는 점에서 이런 추세가 바람직한지는 재고해 볼 필요가 있다”라고 덧붙였다. 콤파스의 사례는 데이터만을 사용해 결과를 예측하는 알고리즘을 만들었을 때 이에 따른 사회적 영향을 고려하지 못하는 한계가 있음을 보여준다. 

⃟인공지능 윤리에 관심 기울여야=차별의 위험이 없는 인공지능을 만들려면 결국 인공지능에 어떤 데이터를 학습시킬 것인가, 더 크게는 인공지능 윤리는 무엇인가에 대해 고민해야 한다. 인공지능 윤리 원칙을 고안한 안성진 교수에 따르면 인공지능 윤리는 △공정성 △투명성 △안전성 △통제성 △책무성이라는 지표로 측정될 수 있다. 차별적 데이터를 배제하려는 것은 공정성에, 정당한 방법으로 개인 정보를 수집하고 활용하는 것은 투명성과 안전성에 해당한다. 특히 안성진 교수는 “챗봇에 사람과의 대화를 학습시키는 과정에서 개인 정보를 모두 비실명화해야 한다”라며 안전성과 투명성의 실천 방법을 설명했다. 지난해 4월 스캐터랩이 자사의 또 다른 서비스 ‘텍스트앳’과 ‘연애의 과학’에서 수집한 카카오톡 대화 문장 94억여 건을 비실명화 처리 없이 사용한 것이 이를 위반한 대표적 예다.

인공지능 개발 시 윤리적인 측면이 실질적으로 고려되려면 인증 제도를 통해 객관적인 평가를 받을 수 있도록 하는 것도 중요하다. 소순주 대표는 “기업의 자체 윤리 점검표도 좋지만 공적인 기관의 인증을 받을 수 있는 공식적인 점검표가 필요하다”라고 말했다.

인공지능 윤리 인증 제도는 점차 가시화되고 있다. 지난 7월 과학기술정보통신부(과기정통부)는 인공지능 윤리와 관련해 14개의 개발 요구 사항과 59개의 검증 항목을 포함한 ‘2022 신뢰할 수 있는 인공지능 개발 안내서’를 발간했다. 또한 지난해 인공지능의 신뢰성 확보 여부와 그 수준을 평가할 수 있는 구체적인 검증 절차를 마련할 것임을 발표했다. 해당 신뢰성 인증제는 내년까지 시범 도입 기간을 가진 후 2024년부터 본격적으로 적용될 예정이다.

저작권자 © 대학신문 무단전재 및 재배포 금지