문화 속 기업윤리

기술지상주의에 대한 경계,

‘페미니즘 인공지능(Artificial Unintelligence)’

전직 소프트웨어 개발자였던 저자는 도서 ‘Artificial Unintelligence’을 통해 AI 알고리즘의 편향과 위험을 논리적으로 설명하고 있다. 도서의 제목을 직역하면 ‘인공무(無)지능’이라고 할 수 있으나 내용에서 알고리즘에 반영된 성차별도 다루기 때문에 국내에서는 제목이 ‘페미니즘 인공지능’으로 번역되었다. ‘인공무지능 (Artificial Unintelligence)’이란 복잡한 사회문제 등을 풀기 위해 컴퓨터에만 의존하는 행위로 정의된다. 저자에 따르면 사람들은 컴퓨터 기술을 이용한 의사결정의 허점을 모르거나 지나치게 신뢰하여 적합하지 않은 부분까지도 컴퓨터 기술을 활용한다.

“데이터 과학”이라는 단어는 분석에 기반하고, 객관적이고, 중립적인 느낌을 준다. 저자는 이러한 데이터 과학이 알고리즘을 만드는 사람들에 의해서 오해와 편견이 반영될 수 있음을 설명한다. 예를 들자면, ‘좋은’ 셀카 사진은 어떤 사진일까? 초점과 앵글이 잘 잡힌 사진이 좋은 셀카일 수 있지만, 알고리즘에 의해 잘 찍었다는 평가를 받은 사진들의 특성을 분석한 결과, 거의 다 젊은 백인 여성의 사진이었다는 점에 주목한다. 사회에서 관습적으로 정의된 ‘매력’의 좁은 범주에 들어맞는 결과는 알고리즘을 만드는 인간의 편향이 반영되어 생성되는 것이다.

의도를 가지고 그렇게 하는 것은 드물겠지만 의도 여부와 상관없이 데이터 과학자들에게는 책임이 있고, 잘못될 가능성에 대해 항상 비판적인 태도와 경계심을 지녀야 한다. 만약 ‘차별'이 사회의 기본값이라면 사회의 시스템은 평등의 개념이 작동하는 방향으로 설계되어야 함을 도서에서는 강조한다. 그러기 위해서 컴퓨터 과학자들은 자신들이 만들고 있는 선례나 설계와 관련된 작은 결정들의 의미를 깊이 생각할 필요가 있다.

이러한 사회적·윤리적 판단은 ‘운전’ 등 생명과 연관된 분야에 인공지능이 접목될 때 더욱 중요하다. 인공지능의 윤리적 판단에 자주 등장하는 트롤리 딜레마(Trolley dilemma)라는 사고(思考) 실험이 있다. 달리는 기차가 선로를 바꾸지 않으면 5명이 죽게 되고, 선로를 바꾸면 바꾼 선로의 1명이 죽게 된다. 어떤 선택을 하는 것이 윤리 관점에서 올바른 선택이라고 할 수 있는가? 윤리적 판단에 논쟁이 있을 수 있지만, 이 판단이 자율주행 차량에 적용이 된다면 단순한 논쟁거리만은 아닐 것이다. 자율주행 자동차 회사 사무실의 기술자들이 각자 내린 결정이 사회 전체의 이익을 뒷받침하리라는 보장이 없다. 그 의사결정을 누가할 것인지를 생각해본다면, 컴퓨터과학자, 소프트웨어 개발자, 엔지니어들의 윤리적 판단이 정교하게 작용해야 하고, 사회적 합의 과정을 거쳐야 할 것이다. 또한 지속적으로 테스트, 논의, 평가, 검증하여 사회적 편견이 제거될 수 있도록 하는 절차를 통해 지각없이 컴퓨터에 의존하는 ‘인공 무지능(Artificial Unintellectual)’을 경계하는 인식이 필요한 때이다.

(이미지출처: 예스24)

참고

  • 문화일보, "<AI 글로벌 최전선을 가다> AI 알고리즘 편향성·위험성… 풍부한 사례 통해 고발" (2019.8.1)
    https://www.munhwa.com/