과기정통부, 「인공 지능(AI)과 함께 살아갈 세상, 불안과 희망」 책자 발간
AI 요약
다음은 대한민국 정부 부처에서 발표한 보도자료를 바탕으로 작성된 상세하고 포괄적인 요약입니다.
1. 핵심 요약
과학기술정보통신부(이하 과기정통부)는 2025년 9월 23일, 2024년 기술영향평가 결과를 담은 『인공 지능(AI)과 함께 살아갈 세상, 불안과 희망』 책자를 발간했습니다. 이 책자는 AI 기술의 핵심 쟁점인 '안전성과 신뢰성' 문제를 심층적으로 다루며, 인간형 로봇(휴머노이드), 양방향 뇌-컴퓨터 인터페이스(BCI), 건강 돌봄 AI 세 가지 고위험 분야에 초점을 맞춥니다. 전문가와 시민이 참여한 토론 및 설문조사를 통해 개인정보 위험, 사고 책임 소재 등 주요 쟁점을 발굴하고, 미래기술 안전성 기본법 제정 등 구체적인 정책 과제를 제안하여 AI 시대의 사회적 수용성과 신뢰 확보를 목표로 합니다.
2. 주요 내용
책자 발간 및 핵심 주제: 과기정통부는 2024년 기술영향평가 결과를 바탕으로 『인공 지능(AI)과 함께 살아갈 세상, 불안과 희망』 책자를 2025년 9월 23일 발간했습니다. 이 책자는 급변하는 AI 기술 환경 속에서 '안전성과 신뢰성'이라는 핵심 쟁점을 중심으로, 기술이 우리 사회에 미치는 영향과 대응 과제를 심층적으로 고찰합니다.
'안전·신뢰 인공 지능'의 정의: 보도자료는 '안전·신뢰 인공 지능'을 단순한 기술적 안전성을 넘어, 기술의 정확성, 일관성, 예측 가능성뿐만 아니라 위험 요소에 대한 통제 가능성, 책임성, 준법성, 윤리성까지 포괄하는 개념으로 정의합니다. 이는 AI가 사회에 통합될 때 필요한 포괄적인 신뢰 기준을 제시합니다.
고위험 AI 분야별 문제점 분석: 책자는 인간 신체 및 의식과 밀접하게 연결된 세 가지 고위험 분야를 집중적으로 분석합니다.
- 인간형 인공 지능(휴머노이드 AI): 학습 오류, 오작동, 사람과 로봇 간 의사소통 오류, 센싱(감지) 기술로 인한 개인정보 침해 등 사회적·윤리적 문제를 다룹니다.
- 뇌 인공 지능(브레인 AI, BCI): 뇌 신호 복호화(디코딩) 및 양방향 뇌-컴퓨터 인터페이스(BCI) 기술의 의료·재활 분야 기대와 함께, 군사적 전용 가능성, 보안 취약성, 뇌 자극으로 인한 중독 위험 등 잠재적 부작용을 지적합니다.
- 건강 돌봄 인공 지능(헬스케어 AI): 빅데이터 수집·활용의 문제, 의료 의사결정에서의 책임 소재, 연령·인종·소득에 따른 건강 형평성 문제, 건강 데이터의 상업적 이용, 개인정보 유출, 데이터 편향 및 과도한 의존 문제 등을 심도 있게 다룹니다.
기술영향평가 과정 및 시민 참여: 2024년 기술영향평가는 과기정통부의 주관 하에 한국과학기술기획평가원(KISTEP)에 위탁되어 진행되었으며, 전문가뿐만 아니라 일반 시민들이 함께 참여하는 토론회(포럼)와 설문조사를 통해 다양한 의견을 수렴했습니다. 이러한 과정은 AI 기술에 대한 국민적 이해와 사회적 합의를 도출하는 데 기여했습니다.
핵심 쟁점 및 정책 과제 제안: 평가 결과, AI 기술의 핵심 쟁점으로 △개인정보 위험, △사고/오류 책임 소재, △일자리·사회 변화 등이 발굴되었습니다. 이에 대한 대응 과제로는 △미래기술 안전성 기본법 제정, △윤리안전 방침(가이드라인) 마련, △민감 정보 기반 기술 관리 체계(거버넌스) 구축, △미래기술 안전성 연구개발(R&D) 등이 구체적으로 제시되었습니다.
책자 접근성 및 담당 기관: 발간된 책자는 2025년 9월 23일부터 과기정통부 누리집(msit.go.kr)과 한국과학기술기획평가원 누리집(kistep.re.kr)에서 누구나 확인할 수 있습니다. 본 보도자료의 담당 부서는 과기정통부 성과평가정책국 과학기술정보분석과와 한국과학기술기획평가원 기술예측센터입니다.
과기정통부의 입장: 임요업 과기정통부 과학기술혁신조정관은 "인공 지능 기술의 안전성과 신뢰성 확보는 기술 수용성과 사회 신뢰의 기반이며, 국민과 함께 기술의 미래를 설계하는 것이 핵심"이라고 강조하며, 앞으로도 전문가와 시민이 함께 참여하는 기술영향평가를 지속적으로 추진할 것이라고 밝혔습니다.
3. 배경 및 목적
인공 지능(AI) 기술은 전례 없는 속도로 발전하며 우리 사회 전반에 혁신적인 변화를 가져오고 있습니다. 특히 인간의 신체나 의식과 밀접하게 연결되는 인간형 로봇(휴머노이드), 뇌-컴퓨터 인터페이스(BCI), 건강 돌봄(헬스케어) AI와 같은 고위험 분야에서의 기술 확산은 새로운 가능성을 열어주는 동시에, 예측하기 어려운 사회적·윤리적 문제와 잠재적 위험을 야기할 수 있습니다. 이러한 배경 속에서 기술에 대한 사회적 수용성을 높이고, 안전성을 검증하며, 국민의 신뢰를 확보하는 것이 무엇보다 중요한 과제로 대두되었습니다.
이러한 필요성에 따라 과학기술정보통신부는 「과학기술기본법」 제14조에 의거하여 새로운 과학기술의 발전이 경제·사회·문화·윤리·환경 등에 미치는 영향을 사전에 평가하고 그 결과를 정책에 반영하는 '기술영향평가'를 매년 수행하고 있습니다. 2024년에는 '안전·신뢰 인공 지능'을 평가 대상으로 선정하여, AI 기술이 가져올 미래 사회의 불안과 희망을 심층적으로 고찰하고 선제적인 대응 방안을 모색하는 것을 목적으로 합니다. 궁극적으로는 전문가와 시민의 폭넓은 의견을 수렴하여 AI 시대의 미래를 국민과 함께 설계하고, 기술 수용성 및 사회적 신뢰를 구축함으로써 AI 기술이 인류의 삶에 긍정적으로 기여할 수 있는 기반을 마련하고자 합니다.
4. 세부 추진 내용
본 책자 발간은 2024년 기술영향평가의 일환으로 추진되었으며, 과기정통부가 주관하고 한국과학기술기획평가원(KISTEP)에 위탁하여 진행되었습니다. 평가 방법론은 「과학기술기본법 시행령」 제23조에 따라 미래의 신기술 및 기술적·경제적·사회적 영향과 파급효과가 큰 기술을 대상으로 선정하고, 전문가와 일반 시민의 참여를 확대하여 국민들의 폭넓은 의견을 수렴하는 방식으로 이루어졌습니다.
구체적으로, 평가는 AI 기술이 국민생활의 편익 증진 및 관련 산업 발전에 미치는 영향, 경제·사회·문화·윤리·환경에 미치는 영향, 부작용 초래 가능성 및 이를 방지할 수 있는 방안, 그리고 성별 등 특성에 미치는 영향 등을 다각적으로 분석했습니다. 특히, 인간형 인공 지능(휴머노이드 AI), 뇌 인공 지능(브레인 AI), 건강 돌봄 인공 지능(헬스케어 AI) 세 가지 고위험 분야를 심층적으로 다루며 각 분야에서 발생할 수 있는 구체적인 문제점들을 도출했습니다. 예를 들어, 휴머노이드 AI에서는 학습 오류, 개인정보 침해, 윤리적 문제 등을, 브레인 AI에서는 군사적 전용 가능성, 보안 취약성, 중독 위험 등을, 헬스케어 AI에서는 데이터 편향, 책임 소재, 개인정보 유출 등을 상세히 분석했습니다. 이러한 분석 결과를 바탕으로 개인정보 위험, 사고/오류 책임 소재, 일자리·사회 변화 등의 핵심 쟁점을 발굴하고, 미래기술 안전성 기본법 제정, 윤리안전 방침 마련, 민감 정보 기반 기술 관리 체계 구축, 미래기술 안전성 연구개발 등의 구체적인 정책 과제들을 제안했습니다.
5. 기대 효과
이 책자 발간과 기술영향평가 결과의 공유는 AI 기술의 사회적 수용성과 신뢰도를 크게 향상시키는 데 기여할 것으로 기대됩니다. AI 기술이 가져올 잠재적 위험과 부작용을 사전에 파악하고 이에 대한 선제적인 대응 방안을 모색함으로써, 기술 발전 과정에서 발생할 수 있는 사회적 혼란과 갈등을 최소화할 수 있습니다. 또한, 국민의 안전과 권익을 보호하고, AI 기술 개발 및 활용이 윤리적이고 책임성 있는 방향으로 나아가도록 명확한 지침을 제시할 것입니다. 궁극적으로는 책자에서 제안된 미래기술 안전성 기본법 제정, 윤리안전 방침 마련 등 구체적인 정책 과제들이 관련 법·제도 및 정책 수립의 기반이 되어, AI 기술이 우리 사회에 긍정적인 영향을 극대화하고 지속 가능한 발전을 이룰 수 있도록 유도할 것입니다. 이러한 노력의 수혜 대상은 AI 기술 개발자, 사용자, 정책 입안자뿐만 아니라 AI 시대를 살아갈 모든 국민이 될 것입니다.
6. 향후 계획
과기정통부는 이번 책자 발간을 시작으로 AI 기술의 안전성과 신뢰성 확보를 위한 노력을 지속적으로 이어나갈 계획입니다. 임요업 과학기술혁신조정관의 발언처럼, 앞으로도 "전문가와 시민이 함께 참여하는 기술영향평가"를 꾸준히 추진하여 AI 기술에 대한 사회적 논의를 활성화하고 국민적 공감대를 형성해 나갈 것입니다. 또한, 책자에서 제안된 '미래기술 안전성 기본법', '윤리안전 방침', '민감 정보 기반 기술 관리 체계', '미래기술 안전성 연구개발' 등의 핵심 과제들을 구체적인 정책으로 발전시키기 위한 후속 연구와 논의를 적극적으로 진행할 예정입니다. 이를 통해 AI 기술이 가져올 미래 사회의 변화에 능동적으로 대응하고, 기술의 긍정적 잠재력을 최대한 발휘하면서도 부정적 영향을 최소화하는 지속 가능한 AI 생태계를 조성하는 데 기여할 것입니다.
보도자료 내용
보도자료 본문은 첨부파일을 참조하세요.