보고서 리뷰
부패방지를 위한 생성형 AI

보고서: OECD, Generative AI for Anti-corruption and Integrity in Government Taking Stock of Promise, Perils And Practice(2024.6)

생성형 AI 기술은 우리의 일상에도 확산되고 있다. 최근에는 생성형 AI의 한 유형이자 거대 언어 모델(LLM, Large Language Model)1)의 발전으로 그 영향력이 더 커지고 있다. 이러한 환경에서 정부는 이를 규제할 뿐만 아니라 빠르게 발전하는 기술을 활용하는 것도 필요하다. 부패방지 및 청렴성을 위해 노력하고 있는 ‘부패방지 입안 및 행정가(예: 부패방지 기관, 최고감사기관, 내부감사 및 통제 기능, 정부 차원의 청렴 부패방지 부처 등)’ 역시 업무에 생성형 AI를 도입 및 활용할 수 있다.

이와 관련하여 OECD는 2024년에 ‘Generative AI for Anti-corruption and Integrity in Government Taking Stock of Promise, Perils And Practice’ 보고서를 발간했다. 이 보고서에 따르면 부패방지 입안 및 행정가가 업무에 생성형 AI와 LLM을 활용하면 이점이 있는 반면 어려움이나 잠재적 위험도 존재한다. 이에 보고서는 AI가 부패방지 및 청렴활동에 활용되고 있는 현황과 사례를 제공하며 고려해볼 과제, 그리고 AI기술 활용에서 비롯되는 위험을 방지하는 방안 등을 소개한다.

보고서는 OECD 회원국 정부와 공공기관을 주요 대상으로 작성되었으나, 부패방지와 관련된 기관 및 행정가를 설문조사한 내용을 담고 있어, 기업의 청렴윤리경영 담당자가 부패방지에 AI를 활용함에 있어 일부 내용을 참고할 수 있을 것으로 판단된다. 이번 보고서 리뷰에서는 관련 내용을 발췌 요약하여 소개하고자 한다.

부패방지 및 청렴성 향상을 위한 기회와 과제

부패방지 분야에서 응용되는 LLM

생성형 AI, LLM의 등장은 부패방지 입안 및 행정가에게 업무 효율성과 영향력을 향상시키는 새로운 방법이다. 부패방지 입안 및 행정가들은 생성형 AI 중에서도 LLM에 주목한다. LLM은 주로 잠재적 위험 쿼리(Query)2) 등을 이용해 문서나 데이터 소스로부터 자동으로 사기를 탐지하거나 대량의 문서와 데이터를 처리를 도움으로써 부패방지 및 조사기관의 업무 수행을 지원할 수 있다. 예를 들면, LLM은 대량의 텍스트를 정리하여 우선순위 결정, 근본 원인 분석, 패턴 인식 등을 돕는다. 감사·조사관은 이러한 기술을 통해 수고와 오류를 줄이고 아직 생성형 AI가 대체하지 못해 인간의 판단과 전문성이 필요한 고부가가치 업무에 더욱 집중할 수 있다. 또한 LLM은 공공 조달 담당자가 기업 또는 잠재적인 계약 업체에 대한 대량의 데이터를 분석해서 사기나 부패 위험을 식별하는 데에도 사용할 수 있어 공공 지출 영역에서의 청렴성도 증진시킬 수 있다.

내부 운영 개선 및 부패·사기 방지 활동 강화

조직의 내부 운영과 반부패 및 사기방지 활동 영역은 서로 연관되어 있다. 때문에 한 영역에서 생성형 AI나 LLM을 사용하여 정보를 처리·분석한 성과는 다른 영역의 효율성을 향상시킬 수 있다. 보고서에 따르면 생성형 AI, LLM를 활용하면 조사 및 감사 프로세스의 증거 수집과 문서 검토 분야와 부패 및 사기 방지활동에서 문서 분석과 패턴 인식에서 가장 큰 이점을 얻을 수 있는 것으로 나타났다.

LLM 구현의 어려움과 조언

부패방지 입안 및 행정가들의 생성형 AI, LLM를 활용에 대해 가장 우려되는 사항은 기술 및 경험 부족과 데이터 프라이버시 및 보안을 꼽았다. 그 다음으로는 예산 제약, 데이터 품질, IT 규제, AI가 생성한 결과에 대한 우려(예: 편견과 환각)도 과제로 꼽혔다.

생성형 AI 및 LLM을 시범적으로 운영할 때에는 문서 요약 및 보도자료 작성, 사용자 질문에 대한 답변 등 비교적 위험도가 낮은 프로세스부터 통합하는 것을 추천한다. 생성형 AI 적용 범위를 확대하기 전에 이용자의 역량을 구축할 수 있으면서 위험도가 낮아 재정적으로나 규정 준수 실패로 인한 비용이 덜 들 수 있기 때문이다. 또한 생성형 AI의 적용범위를 확대하기 위해 ‘컴퓨터 성능, 데이터 스토리지, 소프트웨어’ 등 IT인프라 자원을 마련하는 것이 필요하다.

핵심 과제

현재 생성형 AI, LMM을 사용하는 데 있어 개선 노력이 필요한 과제들은 다음과 같다.

언어 장벽 극복
  • 대부분의 LLM 모델은 영어로 학습되어 있기 때문에 이를 배포하고 사용하는데 한계가 있다. 이를 극복하기 위해 일부 국가에서는 현지 언어로 학습된 LLM개발에 투자한다.
안전장치 필요성
  • 생성형 AI 개발 및 구현과 관련된 과제 중에서 규정 준수 및 윤리 문제는 가장 낮은 순위로 꼽혔다. 그러나 AI가 고급업무에 사용되고, AI규제가 발전할수록 규정 준수에 대한 압력을 받을 것이다.
편견과 차별 완화
  • 발생 원인으로는 모델 기초 데이터가 되는 샘플의 모집단에 대한 대표성 부족, 알고리즘 학습에서 지속적인 오류 결과 값 도출(통계적 편향), 개인이 제공하는 텍스트의 불균형한 학습 등이 있다.
  • 편견과 차별을 완화하기 위해 편견의 위험과 결과 모두를 인식해야 한다. 그러나 이에 대해 전반적인 관심이 부족하고 완화 조치가 이루어지는지 확인하기 위한 책임과 투명성 메커니즘이 부족하다.
설명 가능성 확보
  • LLM를 평가하고 설명하기는 어려울 수 있다. 그러나 AI 모델의 결과물의 해석가능성 및 설명가능성 등을 고려하여 LLM모델을 모니터링하고 평가하는 것은 중요한 고려사항이다.

위험 완화

생성형 AI는 부패방지 및 청렴 업무를 수행하는데 위험을 초래하기도 한다. 위험의 예로는 적대적 공격 (Adversarial Attack)3)과 피싱, 모방(사칭), 도용 등이 있으며, 딥페이크의 확산으로도 위험성이 더욱 커지고 있다. LLM 사용으로 부패 감지가 어려워지거나 공직자가 부정을 저지르기 쉬워지기도 한다. 또한 자동화된 의사결정에 지나치게 의존하면 대중의 신뢰를 잃거나 윤리적 문제를 야기할 수 있다. 생성형 AI는 고의 또는 의도 없이 허위정보를 확산할 위험이 있으며, 거짓 또는 반복되는 댓글, 스팸 처리 등으로 정책 결정과정을 방해할 위험도 존재한다. 이와 관련하여 호주 뉴사우스웨일즈주 독립부패방지위원회(ICAC)는 부패방지 업무에 생성형 AI를 도입할 때 나타날 수 있는 잠재적 기회와 위험을 제시한다. 이 내용을 정리하면 아래의 표 같다. ICAC는 특히, 잠재적 위협 중 실제로 나타나는 문제인 3번과 5번을 강조한다.

<부패방지 업무에 대한 AI의 잠재적 위험>

잠재적 기회 잠재적 위험
  • 대규모 데이터 세트의 필터링
  • 분류 및 분석을 통해 지능을 향상시키는 AI의 능력
  • 패턴 인식
  • 예측 및 모델링
  • 감정 분석
  • 데이터의 이상 징후 감지
  • 데이터 통합 및 다중 소스 분석
  • 인간의 재량권 제한을 통한 부패 기회 감소
  • AI의 딥페이크 제작 능력
  • AI를 이용한 사이버 범죄 강화
  • 공무원의 AI 악용
  • AI에 대한 의존
  • AI를 사용한 정부 문서 위조
  • 민주주의와 공적 담론에 대한 위협
  • 아웃소싱과 관련된 위험

[출처: OECD, Generative AI for Anti-corruption and Integrity in Government Taking Stock of Promise, Perils And Practice(2024)]

보고서는 이처럼 LLM이 부패방지 업무나 외무환경에 영향을 미칠 수 있는 새로운 위험을 야기하거나 강화할 수 있지만 그 외의 다른 위험은 본질적으로 내부적인 것이므로 통제 및 위험 완화 조치를 개발할 때 이를 고려해 볼 만하다고 제시한다.

  • 대량의 텍스트 데이터를 학습하여 자연어 처리 작업을 수행하는 인공지능 모델로 문의나 명령을 해석하고 인간과 유사한 언어로 응답을 생성하는 기계 학습 알고리즘
  • 데이터 베이스에서 속성 데이터를 조사하는 것
  • 인공지능 모델의 취약점을 공격하는 머신러닝(Machine Learning) 공격기법

참고

  • OECD, Generative AI for Anti-corruption and Integrity in Government Taking Stock of Promise, Perils and Practice (2024.6)
  • 방송통신위원회&NIA, 생성형 AI 윤리 가이드북(2023)