개인정보위, GPA 서울서 '오픈소스 AI와 프라이버시' 논의의 장 열다
AI 요약
다음은 대한민국 정부 부처인 개인정보보호위원회에서 발표한 보도자료 '개인정보위, GPA 서울서 '오픈소스 AI와 프라이버시' 논의의 장 열다'에 대한 상세하고 포괄적인 요약입니다.
1. 핵심 요약
개인정보보호위원회는 2025년 9월 15일, 글로벌 프라이버시 총회(GPA) 서울 개막에 앞서 '오픈소스 데이'를 개최했습니다. 이 행사는 구글, 메타, 마이크로소프트, 오픈AI 등 주요 글로벌 AI 기업과 국내 기업, 그리고 영국, 이탈리아, 브라질 등 해외 개인정보 감독기구 관계자 약 120여 명이 참여하여 오픈소스 AI의 안전한 활용과 프라이버시 보호 방안을 논의하는 국제적인 장이었습니다. 참석자들은 오픈소스 AI 생태계에서의 위험 관리, 책임 배분, 그리고 개인·민감정보 필터링 및 검증 절차 등 실질적인 안전성 확보 방안에 대한 깊이 있는 토론을 진행하며 "책임 있는 오픈소스 AI 생태계" 구축에 대한 공감대를 형성했습니다. 특히, 한국을 포함한 4개국 개인정보 감독기구는 자율성 기반의 에이전트 AI 시대에 대비하여 신뢰할 수 있는 AI 구현을 위한 국제적 협력의 중요성을 강조했습니다.
2. 주요 내용
- 가. '오픈소스 데이' 개최 및 주요 참석자: 개인정보보호위원회는 2025년 9월 15일 월요일, 글로벌 프라이버시 총회(GPA) 서울의 사전 부대행사로 '오픈소스 데이'를 개최했습니다. 이 행사에는 구글, 메타, 마이크로소프트, 오픈AI, 셀렉트스타, 에임 인텔리전스 등 주요 글로벌 오픈소스 모델·솔루션 기업과 국내 AI 기업·연구자, 그리고 영국(ICO), 이탈리아(GPDP), 브라질(ANPD) 등 해외 개인정보 감독기구 관계자 약 120여 명이 참석하여 오픈소스 AI 생태계와 프라이버시에 대한 심도 깊은 논의를 진행했습니다.
- 나. 개인정보보호위원회의 사전 준비 및 정책 발간: 개인정보위는 오픈소스 AI의 안전한 활용을 위해 지속적인 노력을 기울여왔습니다. 올해 초 생성형·오픈소스 기반 AI 스타트업과의 간담회를 통해 산업 현장의 수요와 프라이버시 가드레일(안전장치) 필요성을 확인했으며, 2024년 6월에는 오픈소스 모델을 포함한 주요 대규모언어모델(LLM, Large Language Model, 방대한 텍스트 데이터를 학습하여 인간처럼 언어를 이해하고 생성하는 인공지능 모델)을 대상으로 사전 실태점검을 실시하여 프라이버시 리스크를 파악했습니다. 이러한 경험을 바탕으로 2024년 12월에는 「AI 프라이버시 리스크 관리 모델」을, 2025년 7월에는 「생성형 AI 개인정보 처리 안내서」를 발간하며 정책적 기반을 마련했습니다.
- 다. 오픈소스 활용 현황 및 안전성 인식 설문 결과: 행사 전 개인정보위가 개발자, 연구자 및 기업 관계자 70명을 대상으로 실시한 간이 설문조사 결과에 따르면, 응답자의 약 62%가 오픈소스를 도입·활용한 경험이 있는 것으로 나타났습니다. 또한, 오픈소스 모델을 활용한 미세조정(Fine-tuning, 특정 목적에 맞춰 AI 모델을 추가 학습시키는 과정) 시 안전성을 고려한 경험이 있다는 응답은 77%에 달하여, 오픈소스 활용에 대한 높은 관심과 함께 안전성 확보의 중요성에 대한 인식이 확산되고 있음을 보여주었습니다.
- 라. 글로벌 및 국내 AI 기업들의 오픈소스 활용 사례 발표: 구글, 에임 인텔리전스(메타), 마이크로소프트, 네이버, 오픈AI, 셀렉트스타 등 6개 기업은 자사의 오픈소스 생태계와 실제 적용 경험을 공유했습니다. 구글은 비용 효율적인 오픈소스 모델 운영 플랫폼(Vertex AI)과 안전성 강화 도구를, 에임 인텔리전스는 고객 대상 AI 서비스 운영 및 사내 업무용 AI 모델 활용 과정에서 직면하는 현장 안전성 및 정보 보안 과제를, 마이크로소프트는 에이전트 AI(Agentic AI, 스스로 목표를 설정하고 실행하며 학습하는 인공지능) 구축 고객사례를 제시했습니다. 네이버는 국내 오픈소스 생태계 확산 노력을, 오픈AI는 새롭게 공개한 오픈소스 모델(gpt-oss-20b/120b)의 경제·사회적 가치와 함께 안전성 우려 및 책임성을, 셀렉트스타는 AI 신뢰성 검증 솔루션(DATUMO Eval)을 소개하며 다양한 관점의 오픈소스 활용 방안을 제시했습니다.
- 마. 오픈소스 AI 도입 시 프라이버시 및 안전성 집중 논의: 기업 발표에 이어진 실시간 질의응답 시간에는 참석자들이 오픈소스 도입 과정에서 겪는 애로사항과 프라이버시 관련 고민을 공유하며 현장의 목소리를 전달했습니다. 특히, 개인·민감정보 필터링 및 검증 절차, 미세조정 시 고려사항, 레드팀 테스트(Red Team Test, 시스템의 취약점을 공격자의 관점에서 찾아내는 모의 해킹 방식) 설계 방안 등 오픈소스 활용 과정에서의 안전성 및 신뢰성 보장 방안에 대한 집중적인 논의가 이루어졌으며, "책임 있는 오픈소스 AI 생태계" 구축에 대한 공감대가 형성되었습니다.
- 바. 국제 개인정보 감독기구 라운드테이블을 통한 국제 협력 강조: 마지막 순서로 한국 개인정보보호위원회를 포함하여 영국(ICO), 이탈리아(GPDP), 브라질(ANPD) 등 4개국 개인정보 감독기구가 패널로 참석한 라운드테이블이 진행되었습니다. 이들은 오픈소스 AI 생태계에서의 프라이버시 고려사항을 논의하고, 개방성과 투명성에 기반한 신뢰할 수 있는 AI 구현의 필요성에 공감대를 모았습니다. 특히, 향후 자율성에 기반한 에이전트 AI 시대가 도래할 것이라는 전망 속에서, 안전한 AI 생태계를 구축하기 위한 국제적 차원의 지속적인 논의와 협력의 중요성을 강조했습니다.
3. 배경 및 목적
최근 인공지능(AI) 기술의 발전은 전례 없는 속도로 진행되고 있으며, 특히 오픈소스(Open Source, 소스 코드가 공개되어 누구나 자유롭게 사용, 수정, 배포할 수 있는 소프트웨어) 기반의 AI 모델은 낮은 비용으로 높은 성능을 구현할 수 있어 혁신 서비스 개발의 핵심 동력으로 부상하고 있습니다. 이러한 오픈소스 AI는 최신 기술의 확산을 가속화하고 다양한 산업과 사회 전반에 혁신을 가져오는 원동력이 되고 있습니다. 그러나 동시에 오픈소스 AI의 확산은 개인정보 침해, 데이터 편향, 오남용 등 새로운 프라이버시 및 안전성 리스크를 야기할 수 있다는 우려도 커지고 있습니다. 개인정보보호위원회는 올해 초 생성형·오픈소스 기반 AI 스타트업과의 간담회를 통해 이러한 산업 현장의 관심과 수요를 확인했으며, 작년과 올해 초에 걸쳐 주요 대규모언어모델(LLM)에 대한 사전 실태점검을 통해 오픈소스 AI 환경에서의 프라이버시 리스크를 구체적으로 파악한 바 있습니다.
이에 개인정보보호위원회는 오픈소스 AI의 잠재력을 최대한 활용하면서도 개인정보 보호와 안전성을 확보하기 위한 국제적인 논의의 장을 마련할 필요성을 절감했습니다. 본 '오픈소스 데이'는 이러한 배경 아래, 글로벌 AI 기업과 국내 기업, 그리고 해외 개인정보 감독기구들이 한자리에 모여 오픈소스 AI 생태계의 발전 방향을 모색하고, 프라이버시 침해 위험을 최소화하며 안전하게 활용할 수 있는 구체적인 방안을 논의하는 것을 목적으로 합니다. 궁극적으로는 개방적이면서도 신뢰할 수 있는 AI 생태계를 구축하고, 기업과 연구자들이 안심하고 오픈소스를 활용할 수 있는 정책적 기반을 마련하는 데 기여하고자 합니다.
4. 세부 추진 내용
'오픈소스 데이'는 2025년 9월 15일 월요일 오후 1시부터 3시 30분까지 서울 용산구 그랜드 하얏트 서울에서 개최되었습니다. 글로벌 프라이버시 총회(GPA) 서울의 사전 부대행사로 기획된 이 자리에는 개인정보보호위원회 관계자를 비롯해 구글, 메타, 마이크로소프트, 네이버, 오픈AI, 에임 인텔리전스, 셀렉트스타 등 국내외 주요 오픈소스 솔루션 제공 기업과 오픈소스 도입 및 활용을 희망하는 국내 기업 관계자 등 약 120여 명이 참석했습니다.
행사는 최장혁 개인정보위 부위원장의 환영사와 김휘강 비상임위원의 축사로 시작되었으며, 이후 6개 기업의 발표와 질의응답이 이어졌습니다. 구글은 Vertex AI 플랫폼을 통한 오픈 모델 호스팅과 안전성 강화 도구를, 에임 인텔리전스는 Llama 기반의 기업 AI 신뢰성 솔루션을, 마이크로소프트는 Azure AI Foundry 기반의 에이전트 AI 구축 사례를 발표했습니다. 네이버는 오픈소스 생태계 확장을 위한 자사의 노력과 도구를, 셀렉트스타는 AI 데이터와 신뢰성 사업 여정을, 오픈AI는 새롭게 공개한 오픈소스 모델과 함께 오픈소스 생태계의 과제를 공유했습니다. 마지막 순서로는 한국을 포함한 영국, 이탈리아, 브라질 4개국 개인정보 감독기구 관계자들이 패널로 참여하는 라운드테이블이 진행되어, 오픈소스 AI 생태계에서의 프라이버시 고려사항과 국제적 협력 필요성에 대한 심도 깊은 논의가 이루어졌습니다.
5. 기대 효과
이번 '오픈소스 데이' 개최를 통해 오픈소스 AI 생태계의 건강한 발전과 개인정보 보호의 조화를 이룰 수 있는 실질적인 방안이 모색될 것으로 기대됩니다. 글로벌 기업들의 실제 적용 사례와 기술 공유는 국내 기업 및 연구자들이 오픈소스 AI를 더욱 안전하고 효율적으로 활용하는 데 필요한 지식과 통찰력을 제공할 것입니다. 또한, 개인·민감정보 필터링, 미세조정 시 안전성 고려, 레드팀 테스트 설계 등 구체적인 안전성 확보 방안에 대한 논의는 "책임 있는 오픈소스 AI 생태계" 구축을 위한 공감대를 형성하고, 향후 개인정보위 정책 수립에 중요한 현장의 목소리를 반영하는 계기가 될 것입니다. 나아가 국제 개인정보 감독기구 간의 협력 논의는 자율성 기반의 에이전트 AI 시대에 대비한 글로벌 차원의 안전한 AI 거버넌스 구축에 기여하며, 한국이 이 분야의 국제적 논의를 선도하는 역할을 강화할 것으로 예상됩니다.
6. 향후 계획
개인정보보호위원회는 이번 '오픈소스 데이'에서 논의된 현장의 목소리와 글로벌 기업 및 해외 감독기구의 의견을 적극적으로 경청하고 정책에 반영할 계획입니다. 특히, 오픈소스 AI 활용 과정에서 제기된 개인·민감정보 필터링, 미세조정 안전성, 레드팀 테스트 등 구체적인 프라이버시 및 안전성 확보 방안을 「AI 프라이버시 리스크 관리 모델」 및 「생성형 AI 개인정보 처리 안내서」 등 기존 정책에 지속적으로 업데이트하고 보완해 나갈 예정입니다. 또한, 자율성 기반의 에이전트 AI 시대를 대비하여 국제 개인정보 감독기구들과의 지속적인 협력 채널을 유지하고, 글로벌 차원의 안전한 AI 생태계 구축을 위한 논의를 선도적으로 이어나갈 것입니다. 이를 통해 기업과 연구자들이 안심하고 오픈소스 AI를 활용하며 혁신을 지속할 수 있는 환경을 조성하는 데 주력할 것입니다.
보도자료 내용
보도자료 본문은 첨부파일을 참조하세요.