카카오(대표이사 정신아)가 지난 8일 국가인권위원회와 법무부가 공동 개최한 ‘기업과 인권 국제포럼’에서 안전하고 책임 있는 인공지능(AI)을 위한 그룹 차원의 정책과 실천 사례를 공유했다.
카카오가 지난 8일 국가인권위원회와 법무부의 공동 개최로 진행된 ‘기업과 인권 국제포럼’에 참여해 안전하고 책임 있는 AI를 위한 카카오의 노력을 소개했다. [자료=카카오]
이번 행사는 글로벌 규제 동향과 기업 사례를 통해 국가·기업·시민사회가 함께 인권 경영 전략을 모색하는 자리로, 카카오가 국내 기업 최초로 AI 윤리 거버넌스를 체계화한 과정을 알렸다는 점에서 의미가 있다.
카카오는 ‘규제와 자발적 조치를 활용한 스마트믹스 모범 사례’ 세션에서 하진화 AI Safety 시니어 매니저가 발표를 맡아 AI 윤리 원칙, 리스크 관리 체계, 알고리즘 투명성 확보 노력 등을 소개했다.
카카오는 2022년 그룹 기술윤리위원회를 출범시켜 서비스 전반의 AI 윤리 규정 준수와 위험성 점검을 진행하고 있으며, 매년 ‘그룹 기술윤리보고서’를 발행해 활동을 공개하고 있다.
또, 책임 있는 AI 가이드라인, 생애주기별 자가점검 도구, AI 안전 체크리스트, AI 얼라이언스 국내 최초 가입, ‘테크에틱스(Tech Ethics)’ 발간, ‘카카오 에이아이 세이프티 이니셔티브(AI Safety Initiative, 이하 Kakao ASI)’ 구축 등을 추진 중이다. 최근에는 AI 서비스 안전성을 검증하는 ‘카나나 세이프가드(Kanana Safeguard)’ 모델을 개발해 국내 기업 최초로 오픈소스로 공개했다.
카카오는 아동·청소년 보호 정책도 강화했다. 올해 새로 도입한 ‘디지털 아동·청소년 보호 체크리스트’는 청소년보호법과 유엔아동권리협약, 유니세프의 ‘디지털아동영향평가도구(UNICEF D-CRIA)’를 기준으로 제작됐으며, 서비스 리스크 점검과 고충처리 체계 이행 여부를 사전에 확인하는 구조로 운영된다.
이상호 그룹 기술윤리 소위원장은 “카카오는 2018년 알고리즘 윤리헌장을 발표한 이후 다양한 이용자 보호에 힘써왔다”며 “AI 혁신이 인권과 프라이버시 같은 민감한 영역과 맞닿아 있는 만큼 기업 차원의 책임 의식 내재화를 지속할 것”이라고 말했다.