생성형 AI 기술은 우리의 일상에도 확산되고 있다. 최근에는 생성형 AI의 한 유형이자 거대 언어 모델(LLM, Large Language Model)1)의 발전으로 그 영향력이 더 커지고 있다. 이러한 환경에서 정부는 이를 규제할 뿐만 아니라 빠르게 발전하는 기술을 활용하는 것도 필요하다. 부패방지 및 청렴성을 위해 노력하고 있는 ‘부패방지 입안 및 행정가(예: 부패방지 기관, 최고감사기관, 내부감사 및 통제 기능, 정부 차원의 청렴 부패방지 부처 등)’ 역시 업무에 생성형 AI를 도입 및 활용할 수 있다.
이와 관련하여 OECD는 2024년에 ‘Generative AI for Anti-corruption and Integrity in Government Taking Stock of Promise, Perils And Practice’ 보고서를 발간했다. 이 보고서에 따르면 부패방지 입안 및 행정가가 업무에 생성형 AI와 LLM을 활용하면 이점이 있는 반면 어려움이나 잠재적 위험도 존재한다. 이에 보고서는 AI가 부패방지 및 청렴활동에 활용되고 있는 현황과 사례를 제공하며 고려해볼 과제, 그리고 AI기술 활용에서 비롯되는 위험을 방지하는 방안 등을 소개한다.
보고서는 OECD 회원국 정부와 공공기관을 주요 대상으로 작성되었으나, 부패방지와 관련된 기관 및 행정가를 설문조사한 내용을 담고 있어, 기업의 청렴윤리경영 담당자가 부패방지에 AI를 활용함에 있어 일부 내용을 참고할 수 있을 것으로 판단된다. 이번 보고서 리뷰에서는 관련 내용을 발췌 요약하여 소개하고자 한다.
부패방지 및 청렴성 향상을 위한 기회와 과제
부패방지 분야에서 응용되는 LLM
생성형 AI, LLM의 등장은 부패방지 입안 및 행정가에게 업무 효율성과 영향력을 향상시키는 새로운 방법이다. 부패방지 입안 및 행정가들은 생성형 AI 중에서도 LLM에 주목한다. LLM은 주로 잠재적 위험 쿼리(Query)2) 등을 이용해 문서나 데이터 소스로부터 자동으로 사기를 탐지하거나 대량의 문서와 데이터를 처리를 도움으로써 부패방지 및 조사기관의 업무 수행을 지원할 수 있다. 예를 들면, LLM은 대량의 텍스트를 정리하여 우선순위 결정, 근본 원인 분석, 패턴 인식 등을 돕는다. 감사·조사관은 이러한 기술을 통해 수고와 오류를 줄이고 아직 생성형 AI가 대체하지 못해 인간의 판단과 전문성이 필요한 고부가가치 업무에 더욱 집중할 수 있다. 또한 LLM은 공공 조달 담당자가 기업 또는 잠재적인 계약 업체에 대한 대량의 데이터를 분석해서 사기나 부패 위험을 식별하는 데에도 사용할 수 있어 공공 지출 영역에서의 청렴성도 증진시킬 수 있다.
내부 운영 개선 및 부패·사기 방지 활동 강화
조직의 내부 운영과 반부패 및 사기방지 활동 영역은 서로 연관되어 있다. 때문에 한 영역에서 생성형 AI나 LLM을 사용하여 정보를 처리·분석한 성과는 다른 영역의 효율성을 향상시킬 수 있다. 보고서에 따르면 생성형 AI, LLM를 활용하면 조사 및 감사 프로세스의 증거 수집과 문서 검토 분야와 부패 및 사기 방지활동에서 문서 분석과 패턴 인식에서 가장 큰 이점을 얻을 수 있는 것으로 나타났다.
LLM 구현의 어려움과 조언
부패방지 입안 및 행정가들의 생성형 AI, LLM를 활용에 대해 가장 우려되는 사항은 기술 및 경험 부족과 데이터 프라이버시 및 보안을 꼽았다. 그 다음으로는 예산 제약, 데이터 품질, IT 규제, AI가 생성한 결과에 대한 우려(예: 편견과 환각)도 과제로 꼽혔다.
생성형 AI 및 LLM을 시범적으로 운영할 때에는 문서 요약 및 보도자료 작성, 사용자 질문에 대한 답변 등 비교적 위험도가 낮은 프로세스부터 통합하는 것을 추천한다. 생성형 AI 적용 범위를 확대하기 전에 이용자의 역량을 구축할 수 있으면서 위험도가 낮아 재정적으로나 규정 준수 실패로 인한 비용이 덜 들 수 있기 때문이다. 또한 생성형 AI의 적용범위를 확대하기 위해 ‘컴퓨터 성능, 데이터 스토리지, 소프트웨어’ 등 IT인프라 자원을 마련하는 것이 필요하다.
핵심 과제
현재 생성형 AI, LMM을 사용하는 데 있어 개선 노력이 필요한 과제들은 다음과 같다.
언어 장벽 극복 |
|
안전장치 필요성 |
|
편견과 차별 완화 |
|
설명 가능성 확보 |
|
위험 완화
생성형 AI는 부패방지 및 청렴 업무를 수행하는데 위험을 초래하기도 한다. 위험의 예로는 적대적 공격 (Adversarial Attack)3)과 피싱, 모방(사칭), 도용 등이 있으며, 딥페이크의 확산으로도 위험성이 더욱 커지고 있다. LLM 사용으로 부패 감지가 어려워지거나 공직자가 부정을 저지르기 쉬워지기도 한다. 또한 자동화된 의사결정에 지나치게 의존하면 대중의 신뢰를 잃거나 윤리적 문제를 야기할 수 있다. 생성형 AI는 고의 또는 의도 없이 허위정보를 확산할 위험이 있으며, 거짓 또는 반복되는 댓글, 스팸 처리 등으로 정책 결정과정을 방해할 위험도 존재한다. 이와 관련하여 호주 뉴사우스웨일즈주 독립부패방지위원회(ICAC)는 부패방지 업무에 생성형 AI를 도입할 때 나타날 수 있는 잠재적 기회와 위험을 제시한다. 이 내용을 정리하면 아래의 표 같다. ICAC는 특히, 잠재적 위협 중 실제로 나타나는 문제인 3번과 5번을 강조한다.
<부패방지 업무에 대한 AI의 잠재적 위험>
잠재적 기회 | 잠재적 위험 |
---|---|
|
|
[출처: OECD, Generative AI for Anti-corruption and Integrity in Government Taking Stock of Promise, Perils And Practice(2024)]
보고서는 이처럼 LLM이 부패방지 업무나 외무환경에 영향을 미칠 수 있는 새로운 위험을 야기하거나 강화할 수 있지만 그 외의 다른 위험은 본질적으로 내부적인 것이므로 통제 및 위험 완화 조치를 개발할 때 이를 고려해 볼 만하다고 제시한다.
- 대량의 텍스트 데이터를 학습하여 자연어 처리 작업을 수행하는 인공지능 모델로 문의나 명령을 해석하고 인간과 유사한 언어로 응답을 생성하는 기계 학습 알고리즘
- 데이터 베이스에서 속성 데이터를 조사하는 것
- 인공지능 모델의 취약점을 공격하는 머신러닝(Machine Learning) 공격기법
참고
- OECD, Generative AI for Anti-corruption and Integrity in Government Taking Stock of Promise, Perils and Practice (2024.6)
- 방송통신위원회&NIA, 생성형 AI 윤리 가이드북(2023)