생성형 AI 기술의 급속한 발전과 함께 개인정보 보호는 더 이상 선택 사항이 아닌 필수적인 요건으로 부상하고 있다. 대한민국 정부는 최근 생성형 AI 기술의 잠재적 위험성을 인지하고, 개인정보 침해를 방지하기 위한 규제 강화 및 기술적 솔루션 도입을 적극적으로 검토하고 있다고 밝혔다. 이와 관련하여 국무총리실 산하 정보통신기술 policy 기획단은 생성형 AI 기술의 개인정보 처리 현황을 분석하고, 법적, 기술적 대응 방안을 모색하는 데 주력하고 있다.
최근 정보통신부의 발표에 따르면, 생성형 AI 모델 개발 및 활용 과정에서 개인정보 유출 위험이 상당 수준으로 나타났다. 특히, AI 모델 학습에 사용되는 데이터의 편향성 문제, 사용자 데이터의 익명화 오류, AI 모델 자체의 취약점 노출 등이 개인정보 침해의 주요 원인으로 지목되었다. 이러한 문제점을 해결하기 위해 정부는 관련 법규의 개정 및 강화 방안을 추진하고 있으며, AI 개발 및 활용 주체들에게 데이터 보안 의무를 부과하는 방안을 검토하고 있다.
구체적으로, 정보통신기술 policy 기획단은 ‘인공지능 개인정보보호법’의 전면 개정을 통해 AI 기술 발전과 개인정보 보호 간의 균형을 맞추는 데 중점을 두고 있다. 기존 법률의 미비점을 보완하고, AI 기술의 특성을 반영한 새로운 규제를 마련하는 것이 목표이다. 또한, AI 모델의 개발 단계부터 개인정보 보호를 고려하도록 하는 ‘데이터 최소화 원칙’을 강조하며, AI 모델 학습에 필요한 데이터의 양을 최소화하도록 규정할 예정이다.
뿐만 아니라, AI 모델의 개인정보 처리 과정을 투명하게 관리할 수 있는 ‘데이터 거버넌스 체계’ 구축에도 힘쓰고 있다. AI 개발자들은 AI 모델 학습에 사용되는 데이터를 명확하게 기록하고, 데이터 처리 과정의 전 과정을 추적할 수 있는 시스템을 구축해야 한다. 또한, AI 모델의 개인정보 처리 과정에 대한 감사 및 검증을 정기적으로 실시하여, 개인정보 침해 가능성을 사전에 감지하고 예방해야 한다.
이와 관련하여, 기술적인 측면에서도 다양한 솔루션이 개발되고 있다. 익명화 기술, 차등 프라이버시 기술, 연합 학습 등은 개인정보를 보호하면서 AI 모델의 성능을 유지하는 데 기여할 수 있다. 특히, ‘차등 프라이버시(Differential Privacy)’ 기술은 데이터에 노이즈를 추가하여 개별 데이터의 정보를 보호하면서도, 데이터의 통계적 특성을 유지하는 데 효과적이다.
국내 AI 기업들은 이러한 규제 변화에 발 빠르게 대응하고 있다. 많은 기업들이 개인정보 보호 기술 개발에 투자하고 있으며, AI 모델의 개발 과정에 데이터 보안 및 개인정보 보호를 고려하는 ‘by design’ 접근 방식을 도입하고 있다.
정부 관계자는 “생성형 AI 기술은 우리의 삶을 더욱 풍요롭게 만들 수 있는 잠재력을 가지고 있지만, 개인정보 침해 위험을 간과해서는 안 된다”며 “규제 강화를 통해 AI 기술의 안전하고 신뢰할 수 있는 발전과 함께 개인정보 보호를 실현해 나갈 것”이라고 밝혔다. 앞으로 정부는 AI 기술 개발 및 활용 분야의 관계자들과 지속적으로 소통하며, 개인정보 보호 및 AI 기술 발전을 위한 상호 협력을 강화해 나갈 계획이다.