
2년 전
울산동구 인권뉴스⑪ 인공지능(AI)와 오염된 데이터
울산인권운동연대 편집위원회
혹시 ‘AI(artificial intelligence)는 객관적이다.’라는 환상을 가지고 있지는 않은가요? 사회적 논쟁거리가 된 판결 소식의 댓글에 보면 ‘AI판사 도입’ 글이 제법 달립니다. 내가 생각하고 있는 것과 다르게 판단되고, 거기에 대해 오류까지 발견되면 AI에 대한 욕망은 더 증폭됩니다. 그 속에는 ‘기계는 사람의 정에 이끌리지 않고, 사상적 편향도 없을 것이므로 객관성을 유지할 수 있을 것’이라는 전제가 깔려있죠. 인공지능(AI)에 ‘지능’이란 단어가 들어가 있다 보니 더 신뢰가 가는 것일지도 모르겠습니다.
사실 AI는 스스로 생각하는 기능을 가지고 있지 않습니다. AI는 주어진 정보(data)를 알고리즘을 통해 정보를 축적해 나가면서 정확도를 높여 가는데요. 문제는 입력되는 정보입니다. 스스로 도덕이나 윤리, 배려에 대해 생각하는 능력이 없다 보니 오염된 데이터는 바로 오염된 결과로 나타나게 됩니다.
2015년 6월, 구글 포토는 흑인 사진을 ‘고릴라(gorillas)’라고 분류해 놓았습니다. 구글은 “매우 잘못된 일”이라며 사과하고 수정을 약속했지만 제대로 수정하지 못했습니다. 왜 이런 결과가 나왔는지 무엇을 고치면 되는지 알 수 없었기 때문입니다. 당시 구글은 포토분류 알고리즘에서 ‘고릴라’ 관련 단어를 삭제해버렸습니다. 구글 인공지능은 인종도 제대로 구분하지 못했습니다. 안면인식 학습을 주로 백인들 사진을 대상으로 했기 때문입니다.
애플의 신용등급평가시스템이 남성보다 여성에게 더 낮은 신용한도를 부여하는 일도 있었습니다. 미 금융당국도 조사에 나서는 등 IT업계에서는 큰 사건이었습니다. 이 사건은 두 가지 점에서 큰 주목을 받았는데요. 첫째, 애플이 사용한 금융데이터에는 성별 구분이 없었습니다. 애초에 인공지능은 고객이 남성인지 여성인지 알 수가 없었던 것이죠. 둘째는 왜 이런 편향된 결과가 나왔는지 애플도 설명하지 못했다는 것입니다. 인공지능이 저지른 일이었습니다. 카드발급을 맡은 관계사에서는 데이터 자체가 편향되어 있었을 것으로 추측할 뿐입니다.
아마존은 지난해에 채용 인공지능 툴을 폐기했습니다. 남성 편향적이었기 때문입니다. 채용 인공지능 툴은 최근 10년간의 채용 데이터를 근거로 적합한 사람을 가려내는 것인데, 지난 10년간 남자 직원이 훨씬 많았기 때문입니다. 아마존은 이 편향을 제거할 방법이 없었습니다. 결국 인공지능 채용 툴을 개발해온 팀도 해체되었습니다.
AI가 만들어내는 세상을 우리는 아직 알지 못합니다. AI라서 객관적이라거나 믿을 수 있다는 말은 틀린 말입니다. 데이터가 오염되어 있을 수도 있습니다. 사람도 마찬가지입니다. 받아들인 데이터가 오염되어 있으면 생각이나 판단도 오염될 가능성이 큽니다. 끊임없이 자신을 돌아보고 다른 시선으로 바라보기를 해야 하는 이유입니다. 그 시선에는 ‘인권’이라는 기준이 자리 잡았으면 합니다. 미래사회는 더 많은 개인이 더 많은 사람과 연결되어 살아갈 것이기 때문입니다.
※ 대왕암소식지 2021년 겨율호에 실린 내용입니다.
- #울산동구
- #대왕암소식지
- #울산인권운동연대