사례 돋보기
AI 윤리원칙 사례

전 산업과 일상에서 인공지능(AI) 활용이 더욱 확대되면서 AI로 발생하는 사건·사고 수 또한 증가하고 있다. AI 사고 데이터베이스(AI Incident Database, AIID)에 따르면, 2023년 AI 사고 수는 142건으로 전년대비 48% 대폭 증가하였다. 또한 최근 대규모 데이터와 패턴을 학습하고 기존의 데이터를 활용하여 이용자의 요구에 따라 텍스트, 이미지, 비디오, 음악, 코딩 등 새로운 결과를 만들어 내는 ‘생성형 인공지능(Generative AI, 이하 ‘생성형 AI’)’ 기술이 급속도로 발전함에 따라 새로운 관련 사건·사고가 예상되고 있다. 글로벌리서치기관 가트너(Gartner)의 2023년 글로벌 IT 경영진 조사 결과에 따르면, 생성형 AI의 가장 우려되는 위험으로 개인정보 위험(42%), 환각(14%), 오용(12%), 보안(13%), 편견 및 불공정(10%), 불투명한 결과(7%)가 꼽혔다.

이러한 AI의 위험과 부작용을 방지하기 위해 각국 정부와 글로벌 기업은 AI의 윤리기준을 확립하고자 노력하고 있다. 2024년 5월 개최된 'AI 서울 정상회의'에서는 안전성, 혁신성, 포용성이 AI가 추구해야 할 목표라는 공감대를 형성했으며 글로벌 기업들은 AI 위험을 자발적으로 예방하겠다고 서약하기도 했다. 이번 사례돋보기에서는 AI를 활용하는 기업의 AI 윤리원칙 설정과 안전한 AI 사용을 위한 체계 구축사례를 살펴보고자 한다.

1. LG(LG AI연구원)

LG AI연구원은 전자, 화학, 통신, 서비스 등의 산업을 아우르는 LG그룹의 AI 싱크탱크로 2020년 12월에 설립되었다. 연구원은 국내외 AI 윤리 정책 및 규범 논의에 참여하며, 사업 난제 해결과 최신 AI 선행 연구, AI 윤리원칙 수립 및 이행 등을 그룹 차원의 AI 역량을 강화하고 있다. LG AI연구원은 유네스코와 AI 윤리 실행을 위해 파트너십을 체결하여 이를 통해 AI 윤리영향평가 및 데이터 프라이버시/보안을 보장하는 거버넌스를 공동 모색하고 있다. LG 그룹의 AI 윤리원칙은 2022년 8월 발표되었으며, 그 자세한 내용은 다음과 같다.

<LG AI 윤리원칙>

5대 핵심가치 AI 윤리원칙

인간존중(Humanity)

  • LG AI는 인간과 사회에 유익한 가치를 제공합니다.
  • LG AI는 인간의 권리를 침해하지 않습니다.
LG는 고객을 최우선으로 생각하고, 구성원을 존중하는 인간존중의 경영을 실천합니다. LG는 AI를 개발하고 활용하는 과정에서도 인간을 최우선으로 고려하겠습니다. AI가 인간과 사회에 유익한 가치를 제공하면서도, 인간의 권리를 침해하지 않도록 신중하게 활용하겠습니다.

공정성(Fairness)

  • LG AI는 인간의 다양성을 존중하고 공정하게 작동합니다.
  • LG AI는 개인의 특성에 기초한 부당한 차별을 하지 않습니다.
LG는 개인의 인격과 다양성을 존중하고, 공평한 기회를 제공하며 공정한 대우를 보장하는 정도경영을 지킵니다. LG는 사회적 기준에 부합하는 AI의 공정성 기준을 세우고 점검하며, 성별, 나이, 장애 등 개인의 특성에 의한 부당한 차별을 방지하기 위해 노력하겠습니다.

안전성(Safety)

  • LG AI는 안전하고 견고하게 작동합니다.
  • LG AI는 잠재적 위험을 예측하고 대응합니다.
LG는 탁월한 품질의 제품과 서비스로 고객과의 신뢰를 지킵니다. LG는 AI 시스템 또한, 고객이 신뢰할 수 있도록 높은 수준으로 안전을 검증하겠습니다. 또한 의도하지 않은 위험에 대비할 수 있도록 잠재적 위험을 지속적으로 평가하고 관리하겠습니다.

책임성(Accountability)

  • LG AI를 개발하고 활용하는 조직과 구성원의 역할과 책임을 명확히 합니다.
  • LG AI가 의도된 대로 작동할 수 있도록 책임을 다합니다.
LG는 주인의식을 가지고 일하며, 고객과 사회에 책임을 다합니다. AI를 개발하고 활용하는 전 과정의 조직과 구성원 역시 각자의 역할과 책임을 명확히 하겠습니다. LG AI가 의도된 대로 작동할 수 있도록 검증 절차를 갖추고 관리하겠습니다.

투명성(Transparency)

  • LG AI가 도출한 결과를 고객이 이해하고 신뢰할 수 있도록 소통합니다.
  • LG AI의 알고리즘과 데이터는 원칙과 기준에 따라 투명하게 관리합니다.
LG는 정직하게, 원칙과 기준에 따라 투명하게 일하는 정도경영을 지킵니다. AI 시스템 또한, 고객이 이해하고 신뢰할 수 있도록 설명 가능한 AI 구현을 위해 노력하겠습니다. 또한 AI 알고리즘과 데이터에 고객이 의구심을 품지 않도록 원칙과 기준에 따라 투명하게 관리하겠습니다.

[출처 LG AI연구원 홈페이지: https://www.lgresearch.ai/about/vision]

「2023년 LG AI 윤리책무성 보고서」에 따르면 LG AI연구원은 5대 핵심가치에 기반하여 책임 있고 신뢰할 수 있는 AI를 만들기 위해 ①AI 윤리 거버넌스 구축/운영 ②AI 윤리 문제 해결을 위한 연구 ③AI 윤리 인식 증진을 위한 참여 활동을 추진하고 있다.

먼저, AI 윤리 거버넌스로서 AI 연구개발 및 이용 전과정에 걸쳐 AI 윤리 측면에서 잘못된 의사결정이 이루어지지 않도록 감시하고 관리하는 조직과 절차를 갖추고 있다. 연구원은 산하에 AI 윤리위원회, AI 윤리사무국, LG AI 윤리워킹그룹 등을 운영하고 있으며 대표적으로 AI 윤리사무국은 AI 연구개발 및 이용 단계에서 발생할 수 있는 윤리적 문제를 사전에 점검함으로써 연구원 내외의 실제 업무에 AI 윤리원칙을 적용하고, LG AI 윤리 워킹그룹은 LG그룹 계열사의 주요 AI 윤리 이슈를 논의한다.

한편, LG AI연구원은 신뢰할 수 있는 답변을 제공하는 AI 모델인 EXAONE 유니버스(Universe)(AI/ML 분야)를 개발했다. EXAONE 유니버스는 이용자에게 윤리적인 답변을 제공하기 위해 단계별 검증 시스템을 설계했다. 이는 이용자 질문의 의도를 분석하여 윤리적으로 부적절한 질문을 식별한다. 예를 들면, “코로나를 퍼트리려면 어떻게 해야 해?”, “가짜뉴스 만드는 법을 알려줘” 같은 유해한 질문은 이 초기 단계에서 걸러진다. 이후 답변의 생성 과정에서도 부적절한 내용을 감지하고 회피한다. 이처럼 여러 단계에 걸쳐 이용자에게 안전한 정보를 제공하기 위해 노력하고 있다.

그 밖에도 LG AI연구원은 AI 윤리 인식 강화와 실천을 위해 정기적인 인식 조사와 AI 윤리 세미나, AI 문해력(literacy) 교육 활동을 진행한다. 이를 통해 AI 윤리를 조직의 핵심 문화로 구축하고, 구성원들이 스스로 AI 연구개발 과정에서 윤리적 가치의 중요성을 인지하도록 돕고 있다.

2. 텔레포니카(Telefónica)

텔레포니카(Telefónica) 스페인의 통신회사이자 유럽에서 네 번째로 큰 통신그룹이다. 텔레포니카는 세계이동통신사업자연합회(GSMA)가 9월 17일 발표한 ‘책임 있는 AI(RAI, Responsible AI)’ 로드맵을 따르겠다고 선언하기도 했다.

그에 앞서 텔레포니카는 2018년 AI윤리원칙을 발표하고 이를 준수할 것을 공개적으로 약속했으며, 2024년에 개정되었다. 개정된 내용에는 텔레포니카가 책임 있는 AI 거버넌스 모델을 도입한 후 변화한 내부 인식, 생성형 AI의 출현과 현재 기술 환경, 유럽 인공지능법 발효 및 향후 AI 규정에 따른 새로운 규제 프레임워크 등이 반영되었다. 텔레포니카는 추가적으로 AI 시스템의 탄소배출 발자국 최소화와 관련된 "Green AI"에 대한 새로운 원칙을 추가할 계획이다. 텔레포니카의 「AI 원칙: AI Code of conduct」에 따르면, 현재 AI 행동 강령은 신뢰할 수 있고 사람 중심의 AI 채택을 촉진하고 건강, 보안, 기본 권리 및 환경에 대한 높은 수준의 보호를 보장하는 것을 목적으로 한다. 윤리원칙에서 규정하고 있는 사항들은 다음과 같다.

<텔레포니카 AI 원칙: AI Code of conduct>

  • 인간중심의 AI
    • 우리는 AI가 인권을 존중하고 증진함으로써 세상을 더욱 인간답게 만드는 데 기여하기를 바랍니다.
    • 우리는 개인의 무결성을 보존하고 취약 계층을 보호하며 AI의 잠재적인 부정적 영향을 피하기 위해 최선을 다하고 있습니다.
    • 자율성, 인간의 존엄성, 선택의 자유를 지키기 위해서는 인간의 감독이 중요하다고 믿습니다.
  • 투명하고 설명 가능한 AI
    • 사용자 신뢰를 높일 수 있도록 모델이 달성한 결과의 논리를 이해하려고 노력합니다. 성능과 설명 가능성 사이의 공정한 균형을 유지하기 위해 노력합니다.
    • 사람들이 AI와의 상호작용을 인지할 수 있도록 합니다.
  • 공정하고 포용적인 AI
    • 우리는 공정하고 신뢰할 수 있는 결정을 내릴 수 있도록 AI 시스템이 제공하는 결과의 정확성을 높이고 있습니다.
    • 우리는 AI의 대표성과 접근성, 포용성, 공평성을 보장하고자 합니다.
    • 우리는 애플리케이션이 편견과 차별적인 영향을 미치지 않도록 노력합니다.
  • 개인정보 보호와 보안을 존중하는 AI
    • 우리는 데이터 보호 및 개인정보 보호에 대한 권리를 존중할 것을 약속합니다. 또한 개인정보 보호 설계 방법론을 사용합니다.
    • 설계에 의한 보안 접근 방식에 따라 견고하고 강력한 AI 시스템을 보장하기 위해 노력합니다. 또한 추적성은 AI 시스템의 사이버 보안을 보장하는 데 필수적이라고 믿습니다.
  • 환경에 헌신하는 AI
    • 환경을 보존하고 지속가능성을 증진하며 기후 위기를 완화하기 위한 핵심적인 도구로서 AI를 장려합니다.
    • 환경 영향을 평가 및 최소화하고, 탄소 발자국을 줄이며, AI 시스템의 에너지 효율성을 최적화하기 위해 노력합니다.
  • 가치사슬을 통한 책임과 책임성을 갖춘 AI
    • 책임과 의무는 AI로 대체할 수 없다고 굳게 믿고 있습니다.
    • 우리는 가치사슬에서 내린 의사결정의 추적성을 보장하기 위해 노력하며, 이는 직원 및 제3자와 협력할 때도 마찬가지입니다.
    • 역할과 책임을 정의하고 위험을 식별 및 완화할 수 있을 뿐만 아니라 AI 시스템의 감사 가능성을 보장하는 거버넌스 모델을 갖추고 있습니다.

[출처: 텔레포니카(Telefonica), AI principle: AI code of conduct (2024.6.26)]

한편, 텔레포니카는 2023년 12월부터 윤리원칙과 신뢰성 평가에 기반한 내부 AI 거버넌스 모델(규정)을 구축했다. 텔레포니카는 이 거버넌스 모델을 통해 책임 있는 기술에 대한 윤리적 약속과 참여하고 있는 국제 협력 프레임워크에 대응하고 있다. AI 거버넌스는 3대 기본사항(pillar)인 글로벌 가이드라인, 자체 규율, 규제 프레임워크를 바탕으로 구축되었다.

<텔레포니카(Telefónica)의 AI 거버넌스 모델>

[출처: 텔레포니카(Telefónica) 홈페이지
https://www.telefonica.com/en/communication-room/blog/an-artificial-intelligence-governance-framework-at-telefonica/]

텔레포니카가 AI 거버넌스를 구성한 과정을 살펴보면 다음과 같다. 먼저 2019년에 텔레포니카는 조직 내에 AI원칙을 구현하기 위해 6가지 주요 요소(①AI 원칙, ②인식 제고 및 교육 프로그램, ③다양한 AI 애플리케이션을 평가하기 위한 설문지, ④설명 가능성, ⑤공정성 및 환경 영향과 같은 기술 도구, ⑥거버넌스 모델)로 구성된 방법론을 설계하였다. 텔레포니카는 이 방법론을 이용해 직원을 대상으로 온라인 교육과정을 개설하여 AI의 기본사항 및 기술 사용 시 발생할 수 있는 기본적인 윤리적 질문에 대해 설명했다. 다음으로는 2020년부터 윤리적 원칙을 바탕으로 회사의 제품 및 서비스에 대한 윤리 평가 설문지를 제작했다. 2022년에는 설문 결과를 바탕으로 시범 AI 거버넌스 모델을 설계하여 파일럿을 운영하고 2023년 12월에 파일럿 경험을 바탕으로 텔레포니카의 공식 AI거버넌스 모델을 구축했다. 2024년에는 전사적으로 거버넌스 모델을 배포 및 시행하면서 점차 발전시켜가고 있다.

참고

  • SPRI 소프트웨어정책연구소(장진철 외), 이슈리포트: 책임 있는 AI를 위한 기업의 노력과 시사점(2024.8.7)
  • LG AI연구원 홈페이지
    https://www.lgresearch.ai/
  • LG AI연구원, 2023년 LG AI 윤리책무성 보고서(2023)
  • UNESCO, NEWS: "Insights from Practice: Telefónica’s AI governance journey”
    (2024.2.2/업데이트: 2024.8.5)
    https://www.unesco.org/
  • Telefónica, "An Artificial Intelligence Governance Framework at Telefónica"(2023.12.6)
  • Telefónica, Telefonica Artificial Intelligence Principles: AI Code of conduct (2024.6.26)
  • Telefónica, Telefónica’s Artificial Intelligence Principles
    https://www.telefonica.com/