인공지능(AI) 기술의 급속한 발전에 맞춰 개인정보 보호 체계를 선진화하기 위한 민관 협력이 본격화되고 있다.
개인정보보호위원회는 7월 8일 서울 서초구 서울 AI 허브에서 ‘인공지능 프라이버시 민·관 정책협의회 제4차 전체회의’를 개최했다. 이번 회의에는 민간 전문가와 유관 부처 관계자들이 참석해 AI 시대에 필요한 개인정보 보호 방안을 집중 논의했다.
회의에서는 두 가지 핵심 안건이 다뤄졌다. 첫째, 인공지능 프라이버시 리스크 진단 및 인증 방안 연구, 둘째, 생성형 인공지능 개발·활용을 위한 개인정보 처리 안내서(안)이다.
AI 프라이버시 리스크 진단 체계 구축
김병필 카이스트 교수(정책협의회 1분과장)는 인공지능 프라이버시 리스크에 대한 구체적 진단과 인증 방안을 제언했다. 산업계와 학계에서 논의되는 최신 기술과 우수 사례를 비교·분석한 결과를 바탕으로, AI에 내재된 프라이버시 리스크를 체계적으로 진단·평가할 수 있는 프레임워크 구축 방안이 공유됐다.
개인정보위는 작년 12월 인공지능 프라이버시 리스크 관리 모델을 통해 AI 모델의 프라이버시 리스크 관리 절차와 리스크 유형, 경감 조치 등을 안내한 바 있다. 이를 더욱 발전시켜 체계적 진단·측정 기준을 마련하기 위한 후속 연구가 진행되고 있다.
생성형 AI 개발·활용 안내서 논의
생성형 인공지능 개발·활용을 위한 개인정보 처리 안내서(안)도 중요한 논의 주제였다. 이 안내서는 생성형 AI의 수명주기 각 단계에서 개인정보 처리 및 보호를 위해 고려해야 할 적법성·안전성 확보 기준을 제시한다.
안내서에는 ▲생성형 인공지능 관련 개인정보 보호법 주요 내용 ▲인공지능 개인정보 처리 안내서 ▲조사·처분 등 집행 사례 ▲규제샌드박스 등 혁신지원 사례가 포함됐다. 또한 미국·영국·유럽연합(EU) 등 주요국의 최신 정책자료를 참고해 국제적 흐름도 반영했다.

신뢰 기반 가드레일 구축
고학수 개인정보보호위원회 위원장은 “안전한 가드레일 구축은 신뢰할 수 있는 인공지능 발전의 선결 조건”이라며 “인공지능 혁신을 위한 프라이버시와 프라이버시를 위한 인공지능 혁신이라는 두 과제가 상호 발전적인 관계 속에서 기술 수용성과 사회적 신뢰를 높이는 기제가 될 것”이라고 강조했다.
개인정보위는 이번 회의에서 제시된 시민단체, 관계부처, 전문가들의 의견을 반영해 생성형 인공지능 개발·활용을 위한 개인정보 처리 안내서를 7월 말까지 완성할 계획이다.
[출처: https://www.korea.kr/news/policyNewsView.do?newsId=148945645]