양희철 변호사
양희철 변호사

[로리더] 양희철 변호사(대한변호사협회 난민이주외국인특별위원회)는 2월 27일 “인공지능의 발전과 실생활 도입에 따라서 많은 인류에게 혜택을 주게 될 것”이라면서도 “그러나 이와 동시에 많은 인권 침해 가능성도 발생하게 된다”고 경고했다.

대한변호사협회(협회장 김영훈)는 이날 오후 2시 변협회관에서 2023년 제38회 인권보고대회를 개최했다. 이번 인권보고대회 주제는 1부 인공지능(AI)와 인권, 2부 SNS와 인권이었다.

1부 인공지능(AI)와 인권의 주제발표를 맡은 양희철 변호사는 2021년 “법정에 출석한 인공지능”이라는 저서를 집필하기도 했다.

제38회 2023년도 인권보호대회
제38회 2023년도 인권보호대회

양희철 변호사는 “인공지능은 우리가 인지하지 못하는 사이에 우리 생활 곳곳에 이미 깊이 들어와 있다”며 “영화로 봐 왔던 스타워즈나 터미네이터와는 다르지만, OTT인 넷플릭스를 비롯한 영상 콘텐츠에도 인공지능 기술이 들어와 있다”고 운을 띄웠다.

양희철 변호사는 “그런데 이런 인공지능이 우리 바로 옆에서 우리가 모르는 사이에 자리를 잡으면서 일거수일투족을 기록하고 있다”며 “이런 부분은 조지 오웰이 1984에서 묘사한 빅브라더가 새로 생긴 것이 아닌지 우려가 되기도 한다”고 말했다.

양희철 변호사는 “인공지능으로 인해 인권이 침해되는 여지를 줄이기 위해서는 인공지능을 개발하는 인간이 윤리적으로 행동해야 하는 것뿐만 아니라, 인공지능 자체도 윤리적이어야 한다”며 “인공지능은 인간이 만든 존재지만, 본질적으로 자율성을 갖고 있어 우리가 알고 있는 일반 사물과는 다른 특징을 갖고 있다”고 설명했다.

양희철 변호사는 “앨런 튜링은 인공지능을 ‘인간과 같은 지능을 가질 수 있는 컴퓨터와 같은 기계’로 개념을 정의했다”며 “현재 인공지능의 정의는 ‘목적을 달성하기 위한 기계의 작동’”이라고 부연했다.

양희철 변호사
양희철 변호사

양희철 변호사는 “인간 수준의 지능에 이르지 못하는 약인공지능(Weak Artificial Intelligence)은 현재도 우리가 주변에서 볼 수 있는 스마트폰의 개인 비서앱이나 챗봇 서비스 등 특정 분야에서만 이용되는 도구적 존재에 불과하다”며 “반면 강인공지능(Strong Artificial Intelligence) 또는 일반 인공지능(AGI, Artificial General Intelligence)은 인간 수준 이상의 지능을 갖추고 있다”고 비교했다.

양희철 변호사는 “작년 챗GPT로 전 세계의 이목을 끌었던 OpneAI의 자사 홈페이지에 들어가면, 자신들의 비전을 ‘전 인류에게 혜택을 주는 안전한 일반 인공지능을 창조하고 있다(Creating safe AGI that benefits all of humanity)’고 제시한다”며 “이런 내용을 봤을 때, 앞으로 인공지능의 발전 방향이 나아갈지 예측하기 어렵지는 않을 것”이라고 말했다.

양희철 변호사는 “도구에 불과했던 약인공지능은 기존의 법리로 충분히 대응할 수 있다”면서 “문제는 일반인공지능이나 강인공지능 수준에 이르게 되면 법적으로 어떻게 대응해야 할지 고민을 해야 한다”고 제시했다.

양희철 변호사는 “아이작 아시모프의 이른바 ‘로봇공학 3원칙’과 같은 내용을 일반인공지능의 알고리즘에 미리 삽입하도록 의무화하려는 시도도 있었다”며 “그런데 기술적으로 불가능하다고 주장하는 학자들도 있으므로 어떤 식으로 비윤리적 판단을 할 수 있는 인공지능 알고리즘에 대한 규제를 할 것인지 고민해야 한다”고 강조했다.

인공지능 윤리와 인권의 연계성

양희철 변호사는 “인공지능 윤리에는 먼저 인간 측면의 윤리가 제시된다”며 “인공지능을 개발하고 활용하는 인간이 윤리에 따라 인공지능을 개발해야 한다는 내용으로, 인공지능 윤리는 이렇게 개발ㆍ설계된 인공지능이 윤리적으로 판단하고 활동해야 한다는 인공지능 중심의 윤리 두 개를 포함하는 것”이라고 설명했다.

양희철 변호사는 “지금까지는 알고리즘의 편향성이나 투명성, 정체성 등 인공지능을 개발하는 과정부터 활용에 이르기까지 인간의 역할에 초점이 맞춰져 있었다”면서도 “그러나 향후 인공지능의 발전이 고도화되면 이런 인공지능 자체의 윤리성에 대한 부분도 논의해야 할 것”이라고 예측했다.

양희철 변호사
양희철 변호사

인공지능 윤리 관련 국내외 규범

양희철 변호사는 “유럽연합의회는 2023년 6월 인공지능법을 의결하면서 유럽 시민에게 영향을 미치는 모든 인공지능을 위험 기반 규제 방식에 따라 수인불가 위험, 고위험, 제한적ㆍ저위험 등 세 가지 단계로 나눴다”고 전했다.

양희철 변호사는 “미국에서는 2019년부터 연방 차원에서 규제 시도가 있었으나 법안 발의와 폐기를 반복했다”며 “그러다 2023년 10월 바이든 대통령은 행정명령을 통해 인공지능의 안전성과 안보에 대한 새로운 표준 제시, 사생활 보호 등을 내용으로 하는 포괄적인 최초의 행정명령을 발표했다”고 말했다.

양희철 변호사는 “미국의 행정명령에는 국립표준기술원(NIST)이 시스템 취약점에 대한 엄격한 표준을 설정하며, 인공지능이 생성한 콘텐츠를 확인하기 위한 인증 및 워터마크를 도입하도록 하고 있다”고 덧붙였다.

양희철 변호사는 “한국 역시 2021년 11월 과학기술정보통신부에서 인공지능 윤리기준을 구체적으로 확인할 수 있는 실천을 위한자율점검표도 발표했고. 국가인권위원회 역시 2022년 5월 인공지능 개발과 활용에 관한 인권 가이드라인을 발표한 바 있다”며 “2023년 2월, 국회 과학기술정보통신위원회(과방위) 정보통신방송법안심사소위원회에서도 유럽연합의 AI법안을 참조해 발의된 7개의 법안을 통합한 대안을 ‘인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안’으로 의결했다”고 전했다.

양희철 변호사
양희철 변호사

인공지능 윤리와 인권의 접촉면

양희철 변호사는 “인공지능 윤리는 인공지능이 윤리적으로 판단하고, 행동할 수 있게 설계해야 한다는 부분과 인공지능을 개발해 활용하는 과정에서도 인간이 윤리적으로 행동해야 한다”며 “인권이 침해될 수 있는 영역에서는 인공지능의 판단에서만 비롯되는 것이 아니라 인공지능을 개발하는 과정에서 인간의 행동 역시 중요하다”고 조언했다.

양희철 변호사는 “예를 들어, 면접 심사에 활용되는 인공지능이 어떤 면접 응시자에게 부당한 차별의 기준을 갖고 판단한다면, 그 인공지능 자체도 문제지만, 편향적인 알고리즘을 만든 인간 역시 잘못된 행동을 한 것”이라고 예시를 들었다.

양희철 변호사는 “각국의 인공지능 윤리에서 일반적으로 제시되고 있는 요소에는 ①차별금지를 포함하는 공정성 ②책무성 ③투명성 ④개인정보ㆍ사생활 보호 ⑤안전성 등이 있다”며 “예를 들어 ▲공정성을 위반하는 경우에는 평등권을 ▲투명성을 위반하는 경우 절차적 권리와 알 권리를 ▲개인정보ㆍ사생활 보호를 위반하는 경우 개인정보자기결정권과 사생활의 비밀을 침해받는 등 인공지능윤리의 위반은 인권의 침해로 이어질 가능성이 높아 마치 동전의 양면과 같은 관계”라고 지적했다.

양희철 변호사는 “과기부는 2023년 9월 ‘인간의 존엄과 가치’, ‘자유와 권리’ 보장을 기반으로 하는 ‘디지털 공동번영사회의 가치와 원칙에 관한 헌장: 디지털 권리장전’을 발표하기도 했다”고 덧붙였다.

양희철 변호사
양희철 변호사

인공지능의 자율성 문제

양희철 변호사는 “인공지능에 이런 문제들이 생기는 이유는 인공지능의 본질적 특성인 자율성 때문”이라며 “우리는 인공지능이 어떤 판단을 해서 결과물이 나왔는지 추적하고, 어디가 잘못됐는지 판단할 수 있을까를 한번 생각해 봐야 한다”고 말했다.

양희철 변호사는 “그런데 빅데이터를 기초로 학습하는 인공지능에서는 결과가 나오는 과정을 정확하게 알 수가 없다”며 “그래서 대출 심사나 채용 면접과 같은 의사결정에 빅데이터 기반 인공지능이 결론을 내리면 알 권리와 절차적 권리가 제대로 보장이 되지 않고 있다”고 지적했다.

양희철 변호사는 “그래서 자동화된 의사결정에서는 반드시 그 과정 중에 사람이 한 단계에 참여하는 ‘휴먼 인 더 루프(human in the loop)’라는 방식을 채택해야 한다”며 “의사결정 절차에 대한 투명한 공개와, 공개를 요청할 수 있는 절차적 권리도 보장돼야 하고. 만약 잘못된 결정이 이뤄지면 그 오류를 수정하는 것은 민간이 참여하는 제3의 기관이나 조직이 담당해야 할 것”이라고 제안했다.

자율 운송수단의 등장과 안전성 문제

양희철 변호사는 “자율주행 5단계에 이르는 완전 자율주행은 아니더라도, 자율주행사고는 지금도 빈번하게 일어나고 있다”며 “테슬라로 대표되는 자율주행차 외에도 국내에도 운전 보조 기능을 통한 2~3단계 자율주행 차량이 많다”고 밝혔다.

양희철 변호사는 “그러나 실제로는 운전 보조 기능이지 아직 완전 자율주행 단계에 이르지 못했지만, 마케팅에 현혹된 운전자들이 잘못된 신뢰를 해서, 자신이 운전을 제대로 하지 않는 상황이 발생해 테슬라나, 국내에선 현대자동차도 사망 사고까지 발생했다”며 “이런 사고가 발생했을 때, 자율주행 자동차의 하자를 소비자들이 입증하도록 하는 것이 타당할 것인지 법리적으로 많은 검토가 필요하다”고 말했다.

양희철 변호사
양희철 변호사

자율무기 체계에 대한 우려

양희철 변호사는 “자율무기란 ‘추가적인 인간의개입 없이 통합정보 및 사전 프로그램 통제 하에 독립적으로 목표를 선정해 공격할 수 있는 무기체계’를 의미한다”며 “국제사회에서 문제가 되는 것은 인간의 개입이나 통제 없이 운용되는 공격형 ‘휴먼 아웃 오브 더 루프(humanout of the loop)’ 형태의 자율무기 체계”라고 설명했다.

양희철 변호사는 “이런 체계에 대해 일부 긍정적인 입장, 고도의 정밀성을 바탕으로 부수적 피해를 줄일 수 있을 것이며 감정에 치우치지 않기 때문에 오히려 정확하게 임무를 수행할 수 있다는 주장도 있다”면서도 “그러나 자율무기 체계가 보편화되면 오히려 인명 피해에 대한 부담이 적어져 분쟁이 더 많아질 수도 있고, 자율무기 체계를 갖춘 국가와 아닌 국가 간의 군비 격차가 더 커질 수 있는 문제도 있다”고 비판했다.

양희철 변호사는 “우리나라는 2023년 국방혁신 4.0 계획을 발표하면서 인공지능 기반의 무인 전투 체계를 구축할 예정”이라며 “우리 정부는 미국, 러시아, 중국, 이스라엘과 함께 자율무기 체계에 대한 국제적 규제에 반대하는 입장을 취하고 있어 향후 국제적으로도 많은 논란이 거듭될 것으로 보인다”고 내다봤다.

양희철 변호사, 이광수 변호사
양희철 변호사, 이광수 변호사

인공지능과 개인정보 침해 문제

양희철 변호사는 “인공지능을 개발하면서, 알고리즘의 수준은 어느 정도 상향 평준화됐고, 중요한 것은 학습하는 데이터라는 얘기가 나온다”며 “실제로 인공지능 개발비의 75% 가까이가 데이터 관련에 사용되고 있다”고 전했다.

양희철 변호사는 “정확하고 가치 있는 데이터를 만들기 위해서는 많은 데이터를 학습해야 하는데, 문제는 여기에 수많은 개인정보가 포함돼 있다는 것”이라며 “개인정보를 비식별화ㆍ익명화해서 학습을 하는데, 완전 익명화를 하게 되면, 데이터의 가치가 하락하게 된다”고 설명했다.

양희철 변호사는 “2020년 개인정보 보호법을 개정해 제28조의2 이하 규정을 둬 개인정보를 가명처리해 개인의 재식별을 막되, 활용도는 넓히려고 시도했다”면서 “하지만 가명정보의 처리와 결합 권한ㆍ절차가 까다로운 편이라 도입 취지와 달리 가명처리된 개인정보가 많이 사용되고 있지는 않다”고 지적했다.

양희철 변호사는 “스캐터랩의 챗봇인 ‘이루다’는 학습 데이터에 ‘텍스트앳’이나 ‘연애의 과학’ 등 타 서비스에서 수집한 이용자들의 카카오톡 대화를 사용했다가 개인정보 삭제ㆍ암호화 조치를 취하지 않았고, 이용자들에게 알리거나 개별적인 동의도 받지 않았다”며 “결국 스캐터랩은 이용자들의 개인정보자기결정권 침해와 개인정보 보호법 위반으로 총 1억 330만원의 과징금 및 과태료, 시정명령을 받게 됐다”고 예시를 들었다.

양희철 변호사는 “법무부 출입국외국인정책본부는 출입국심사 과정에서 내국인과 외국인들의 생체 정보 제공을 의무화해 수집한 후, 이를 데이터베이스화해 이용해 왔다”며 “여기서 수집된 개인정보들은 정보주체의 동의 없이 공항 내 실시간 얼굴인식시스템 구축을 위한 학습 데이터로 사용됐고, 이 과정에서 다수의 민간기업에도 적용됐다”고 지적했다.

양희철 변호사는 “이뿐만 아니라 공항의 출입 관리 구역에서는 카메라를 설치해 인공지능 학습을 위한 얼굴 인식과 행동 인식 데이터를 수집하고 있다”고 덧붙였다.

편향된 데이터 학습과 차별의 학습

양희철 변호사는 “인공지능은 알고리즘을 수정하면서 계속 뛰어난 인공지능으로 구축된다”며 “이때 인공지능은 기존 사회가 가진 선입견이나 편향된 학습 데이터들을 학습하게 된다”고 비판했다.

양희철 변호사는 “혹자는 판사를 인공지능으로 대체해야 한다고 얘기하기도 하지만, 판결을 내리는 인공지능 역시 기존의 판례를 학습하고, 기존의 사회 시스템에 있는 정보들을 학습하기 때문에 그 자체로 완전히 새로운 판결이 나올 수 없고, 오히려 차별이 강화되는 결과가 발생할 수도 있다”며 “컴퓨터 업계에서는 이를 이른바 ‘쓰레기가 들어가면 쓰레기가 나온다(Garbage in, garbage out)’고 표현하기도 하듯 인공지능의 편향된 데이터 학습에도 동일하게 이용된다”고 꼬집었다.

양희철 변호사는 “미국에서는 CCTV로 촬영된 영상에 안면 인식 기술을 활용해 범죄자를 체포하는 과정에서 엉뚱한 사람을 체포하는 사례가 빈발하고 있다”며 “피의자로 잘못 인식된 사람은 흑인이 많은데, 안면 인식 프로그램 자체가 백인보다 흑인을 잘못 인식할 확률이 현저히 높다는 점에서 제도적으로 사회적 차별을 공고히 하는 부분이 있다”고 밝혔다.

양희철 변호사는 “법원에서 양형에 고려하는 재범 가능성 예측 시스템인 COMPAS(Correctional Offender Management Profiling for Alternative Sanctions)가 흑인 집단을 백인 집단에 비해 재범 가능성이 2배나 높은 것으로 보고 있어 기존의 사회적 차별 구조가 인공지능에도 그대로 반영된다”며 “인공지능이 활용되는 인간 사회의 실상을 그대로 드러내는 것이라고 본다면 자연스러운 것이라는 주장도 있을 수 있지만, 그것이 우리 사회가 지향해야 할 바람직한 방향인지에 대해서는 쉽게 동의하기 어렵다”고 비판했다.

양희철 변호사
양희철 변호사

인공지능 기반 행위의 법적 책임 소재와 구제 문제

양희철 변호사는 “현재까지의 인공지능인 챗GPT도 마찬가지로 약인공지능에 해당하므로 이 수준까지는 기존의 법리로 해결된다”며 “만약 동물이 제3자의 신체나 재물을 손괴했을 때, 사육하는 사람이 책임을 지는 것처럼 도구로 인식할 수 있으나, 그 단계를 넘어서 인공지능이 인간의 지능 수준을 넘는다면 어떻게 해야 할지 논의가 이뤄지게 될 것”이라고 내다봤다.

양희철 변호사는 “인공지능의 법적 주체성을 인정할 것인지 아닌지에 따라서도 많이 달라질 것”이라고 말했다.

양희철 변호사는 “인공지능에게 법적 주체성을 인정하지 않는 이상 민사 계약법 영역에서는 표현대리에 불과하다”면서 “형사법적으로는 인공지능이 인간의 고의나 과실이 있는 경우 인간이 각 책임을 지고, 인공지능의 지시에 따른 인간의 범죄 행위는 인공지능의 배후에 있는 인간에게 책임을 귀속시킬 수 있다”고 주장했다.

양희철 변호사는 “반면 인공지능의 법적 주체성을 인정한다면, 민사 계약법적으로는 인공지능을 대리인으로 본다”며 “마치 고대 로마의 노예처럼 제한적으로 법적 지위를 인정할 수도 있다”고 덧붙였다.

양희철 변호사는 “독일에서는 2021년 도로교통법을 개정하면서 세계 최초로 운전자의 개입이 불필요한 레벨4의 자율주행자동차의 경우 보유자에게 무과실책임 및 자율주행자동차보험 의무적 가입을 강제했다”면서 “영국의 법률위원회에서도 레벨4단계의 자율주행차 운영자가 보험 가입의무를 부담할 것을 제안하고 있다”고 설명했다.

인공지능 기반 정보 검색

양희철 변호사는 “기업들은 처음에 챗GPT를 활용하면 업무 효율성을 높일 수 있다고 생각해 활용하도록 했다가 삼성 등 국내외 기업들에서 영업 비밀이 챗GPT를 통해 OpenAI 쪽으로 넘어가는 상황이 발생했다”며 “이로 인해 일부 기업에서는 내부 정보나 보유한 자료의 유출을 막기 위해 업무에 챗GPT 이용을 금지하기도 했다”고 밝혔다.

양희철 변호사는 “2019년 국내에서는 인공지능과 인간의 혼합팀, 인간으로만 구성된 팀 사이에서 계약서 검토 경진대회가 벌어졌는데, 당시 혼합팀들이 인간팀들을 누르고 큰 점수차를 냈다”며 “하지만 최근 미국에서 생성형 인공지능을 활용해 작성한 의견서를 법원에 제출했던 변호사들이 인공지능이 제시한 허위 판례를근거로 들었다는 것이 확인돼 제재를 받기도 했다”고 비교했다.

양희철 변호사는 “일본 법무성은 인공지능을 이용한 계약서 작성, 검토 서비스도 ①변호사 자격이 없는 자가 보수를 얻을 목적으로 ②구체적인 법률상 다툼이 있는 사건에 관해 ③법률상 전문지식에 근거해 견해를 제시하는 경우 일본 변호사법 제72조 위반으로 보는 가이드라인을 발표했다”고 예시를 들었다.

양희철 변호사는 “일반 국민의 사법 접근권을 강화하는 측면에서 인공지능을 활용해 이용자의 구체적인 사실관계를 반영한 정형화된 내용의 형식을 만들어내는 상황은 허용돼야 한다”며 “그러나 구체적인 상황에 대해 인공지능에만 의존해서 만들어낸 결과에 정확성을 담보할 수 있을지는 고민을 해야 한다”고 제안했다.

양희철 변호사, 이광수 변호사
양희철 변호사, 이광수 변호사

인공지능과 실업

양희철 변호사는 “인공지능의 발달을 두고 과거에는 주로 육체노동자(블루칼라)들이 위기를 맞이할 것이라고 예상했는데, 실제로는 사무직 등 화이트칼라에서 실업 문제가 먼저 와 있다”고 말했다.

양희철 변호사는 “국내에서도 요식업이나 숙박업에서 서빙 로봇을 도입하는 사례가 증가하고 종업원들이 실직하는 상황이 발생하고 있다”며 “세계경제포럼에서는 앞으로 많은 일자리가 인공지응으로 인해서 사라질 것이고, 또 생길 것이라고 봤다”고 전했다.

양희철 변호사는 “문제는 사회적 효용은 증가하지만, 이익을 누리는 계층과 피해를 보는 계층이 존재할 것”이라며 “이런 부분에 대한 사회적 합의와 사회안전망 구축이 필요하다”고 주문했다.

양희철 변호사는 “인간을 해고하는 대신 인공지능 로봇을 도입해 생산성 혁신을 이룬 기업들에는 증가한 수익의 일정 비율을 ‘로봇세’로 징수해 실업자들의 생계를 보장하는 등 논의가 나온다”며 “사회 전체의 효용 증가분을 재원으로 해 증가한 실업으로 인한 소비력 감소를 상쇄하기 위한 ‘기본소득’을 제공하자는 것까지 연계된 논의”라고 소개했다.

양희철 변호사는 “로봇세나 기본소득은 아직까지 실제로 도입한 나라가 없고, 실험적인 단계에 있다”며 “앞으로 인공지능이 본격적으로 도입되면 대규모 실험이 발생할 가능성이 있어 이 부분에 대한 논의도 사회적으로 이뤄져야 한다”고 강조했다.

양희철 변호사는 “결론적으로 인공지능의 발전과 실생활 도입에 따라서 많은 인류에게 혜택을 주게 될 것”이라면서도 “그러나 이와 동시에 많은 인권 침해 가능성도 발생하게 된다”고 지적했다.

양희철 변호사는 “인간이 눈치채지 못할 정도로 교묘하게 딥페이크 영상을 만들어 명예를 훼손하는 상황이 발생하기도 하고, 개인정보 유출 및 사생활 침해가 점점 더 은밀하고 교묘하게 발생할 것”이라고 우려했다.

양희철 변호사는 “그러나 한 번 굴러간 바퀴를 멈춰 세울 수는 없게 될 것”이라면서 “인류의 문명은 이미 인공지능으로 가고 있다”고 평가했다.

제38회 2023년도 인권보호대회
제38회 2023년도 인권보호대회

한편 이번 인권보고대회는 우인식 대한변협 제1인권이사가 사회를 봤고, 대한변협 인권위원회 이광수 변호사가 진행을 맡았다.

제1주제 ‘인공지능(AI)와 인권’은 대한변협 난민이주외국인특별위원회 양희철 변호사가 주제발표를 맡고, 정보통신정책연구원(KISDI) 문정욱 지능정보사회정책연구실장과 지능정보산업협회 장홍성 협회장(SK텔레콤 부사장)이 토론자로 참여했다.

제2주제 ‘SNS와 인권’은 대한변협 인권위원회 신은영 변호사가 주제발표를 맡고, 경북대학교 법학전문대학원 이권일 교수, 이승열 변호사(법무법인 지선)가 토론자로 참여했다.

[로리더 최창영 기자 ccy@lawleader.co.kr]

저작권자 © 로리더 무단전재 및 재배포 금지