[칼럼] 정완 경희대 교수 “새끼호랑이와 더피로 풀어쓴 AI 국가전략”

정완 경희대학교 법학전문대학원(로스쿨, 법전원) 교수

2025-09-26     로리더
정완 경희대학교 법학전문대학원(로스쿨, 법전원) 교수

<새끼호랑이와 더피로 풀어쓴 AI 국가전략>

이재명 대통령이 유엔 안보리 사회를 보면서 AI를 ‘새끼호랑이’와 케이팝 데몬 헌터스에 나오는 ‘더피’로 나누어 설명한 것은, 기술을 향한 감정과 통치의 과제를 한 번에 정리해 보려는 멋진 비유의 정치ㆍ외교적 메시지로 읽힌다.

새끼호랑이는 지금 당장은 귀엽고 유용하지만, 성장과 함께 그 통제가 매우 어려워질 수 있는 위험성을 상징한다. 더피는 인간 곁에 머물도록 의도적으로 모서리를 둥글게 만든 존재, 설계단계에서부터 안전장치와 책임을 내장한 ‘친인간’ 기술을 뜻한다. 즉 “무작정 좋아하지 말고 애초에 안전하게 만들어 운용하자”는 방향제시인 것이다.

UN 안보리라는 무대의 맥락을 감안하면, 이 비유는 기술정책을 넘어 국제규범에 관한 발언이다. 새끼호랑이는 대형 플랫폼ㆍ모델의 집중과 무기화 가능성, 정보작전과 사이버공격, 자동화된 의사결정이 불러올 체계적 위험을 가리킨다.

한 나라의 국내 규제만으로는 다루기 어렵고, 국경을 넘는 데이터와 공급망, 표준의 문제로 이어지니, 다자 틀에서의 공동 위험관리와 책임 배분을 요청하는 신호다.

반대로 더피는 인간감독, 설명가능성, 되돌릴 수 있음, 데이터최소화 같은 안전설계를 국제적 ‘최소공통분모’로 삼자는 제안에 가깝다. 한국이 중견국으로서 안전과 혁신을 동시에 추구하는 ‘가교역할’을 자임하겠다는 선언이기도 하다.

국내정치 문법으로 보면 새끼호랑이 비유는 무분별한 도입경쟁과 규제공백에 대한 경고다. “지금 편리하다고 해서 내버려두면 나중에 대책이 없다”는 말은 고위험 영역에서 인간 최종결정과 기록ㆍ감사를 의무화하고, 공공부문부터 사용 현황과 영향평가를 공개하겠다는 통치의지로 연결된다.

더피는 산업계와 시민에게 건네는 약속이다. 안전을 이유로 발목을 잡자는 게 아니라 처음부터 사람을 중심에 놓고 설계해 신뢰를 키우겠다는 메시지다. 그래서 ‘덜 통제된 신뢰’가 아니라 ‘더 잘 통제된 신뢰’를 만들자는 청사진이 읽힌다.

외교적 계산도 분명하다. 미국ㆍEU의 안전규범(위험기반, 거버넌스)과, 글로벌 사우스의 접근성과 개발권 요구 사이에서 한국은 사람 중심의 친인간 설계와 보편적 안전장치를 앞세워 규범 연합을 넓힐 수 있다.

새끼호랑이는 금지ㆍ견제 담론을, 더피는 포용ㆍ확산 담론을 대변하니, 두 축을 함께 제시하면 특정진영에 치우치지 않고 협력을 설득하기 용이하다. 안보리라는 상징성은 AI를 단순한 산업정책이 아니라 평화ㆍ안보 의제로 격상시키는 효과를 노린다.

산업전략의 언어로 번역하면, 새끼호랑이는 데이터주권, 공급망 다변화, 모델 안전성 검증과 같은 ‘울타리’를 선행하라는 주문이고, 더피는 온디바이스ㆍ프라이버시 보존형 학습, 설명가능한 서비스디자인 등 ‘곁에 두는 기술’을 한국의 비교우위로 삼으라는 신호다. 이는 규제와 지원을 교차 배치하겠다는 정책디자인으로 이어질 것이다. 즉 고위험 분야엔 강한 책임을, 저위험ㆍ공공편익 분야엔 신속한 적용과 인센티브를 묶는 방식이다.

결국 이 비유의 핵심은 감정이 아니라 구조다. 새끼호랑이를 좋아하는 마음은 이해하지만, 그것이 통제의 빈칸을 덮어주는 이유가 되어선 안 된다. 더피처럼 만들겠다는 약속도 말뿐이면 소용없다. 되돌릴 수 있는 도입, 설명가능한 결정, 기록과 감사, 사람에게 귀속되는 책임이 제도와 시장의 일상으로 들어와야 한다.

대통령의 의도는 여기에 있을 것이다. 기술을 사랑하되 새끼호랑이로 사랑하지 말 것, 그리고 사랑의 증거를 울타리와 설계로 보여줄 것. 한국이 그 균형을 먼저 실천해 보이겠다는 외교와 산업을 동시에 향한 신호로 읽힌다.

<위 글은 외부 기고 칼럼으로 본지의 편집 방향과 무관합니다>