2025년 세계 인공지능 AI 시장규모 1000억 달러 돌파 예측
법무법인 태평양 '인공지능 규제안 어디까지 왔나' 세미나
EU, 2019년 'AI 윤리 가이드라인' 제시... 올해 'AI 법안' 발표

[법률방송뉴스] 지난해 국내 로펌이 해외에서 벌어들인 법률서비스 분야 무역 수입이 사상 처음 1조원을 돌파했습니다. 이는 세계 속에서 국내 로펌의 입지와 위상이 상당해지고 있다는 것을 뜻하는 것으로 보여지는데요.

법률방송 'LAW 포커스'에서 마련한 코너 'K-로펌'에서는 국내 굴지의 로펌들이 빠르게 변화하고 발전해가는 현 상황에 어떻게 법률적으로 대비하고 발맞춰 나가는지를 전해드립니다.

그 첫 번째로 법무법인 태평양의 '인공지능 세상을 대비하는 자세'에 대해 장한지 기자가 취재했습니다.

[리포트]

글로벌 리서치 기관 '스태티스타'에 따르면, 세계 인공지능 AI 시장 규모는 2019년 100억 달러를 넘겼고,

2025년에는 1000억 달러를 가뿐하게 넘길 것으로 예상되는데, 우리 돈으로 계산하면 무려 100조 규모의 시장입니다.

구글, IBM, 페이스북, 아마존, 인텔, 마이크로소프트 등 많은 IT 공룡 기업들을 중심으로 AI 시장 확대가 가속화하고 있습니다.

시장조사기업 한국IDC가 최근 발간한 '국내 인공지능 2019-2023 시장 전망' 연구 보고서에 따르면 국내 AI 시장이 향후 5년간 연평균 17.8% 성장해 2023년 6400억원 이상 규모를 형성할 전망입니다.

[박윤규 실장 / 과학기술정보통신부 정보통신정책실]
"인공지능은 금융, 헬스케어, 안전 등 수많은 분야에서 다양한 제품과 서비스로 개발되며 하루가 다르게 우리 일상과 가까워지고 있습니다. 그렇지만 이루다 사건에서 보듯이 불공정과 편견의 위험성, 의사결정에 대한 책임과 손해배상 같은 이슈들은 우리가 함께 풀어가야 할 큰 숙제입니다."

이런 가운데, 법무법인 태평양과 한국데이터법정책학회가 공동으로 '인공지능 규제안 어디까지 왔나'를 주제로 세미나를 개최했습니다.

인공지능 시대가 본격화하고, AI 기술이 무서운 속도로 발전함에 따라 그 이면엔 '윤리' 문제가 부작용으로 떠올랐습니다.

이러한 AI 역기능을 최소화하고 규제를 적절히 활용하기 위해 국내외 동향을 알아보고 개선책을 짚어보자는 게 이번 세미나의 취지입니다.

[박지연 변호사 / 법무법인 태평양]
"국내에서 AI 규제법이나 가이드라인이 많이 제정되고 있습니다. 그런데 AI에 대해서 너무 강한 규제를 하게 되면 혁신을 저해하는 문제가 생기기 때문에 이 분야는 그 어느 분야보다 섬세한 규제와 집행이 필요한 분야라고 할 수 있습니다."

한이봉 법무법인 태평양 대표변호사는 "세계 각국에서는 인공지능 윤리 기준 및 규제안 도입 논의가 활발하게 진행되고 있다"며 AI에 대한 세계적 추세에 대해서 다시 한번 강조했습니다.

[한이봉 대표변호사 / 법무법인 태평양]
"유럽연합에서는 2019년 AI 윤리 가이드라인이 발표된 데 이어 지난 4월 구체적인 규제 법안이 발의됐고 한국에서도 과학기술정보통신부, 개인정보보호위원회, 방송통신위원회 등 각 정부부처에서 인공지능 규제안을 발표하거나 준비하고..."

이를 증명하듯 EU유럽위원회는 지난 2019년 4월 인공지능에 대한 신뢰성 제고를 위한 'AI 윤리 가이드라인'을 처음 제시했습니다.

법률적으로 강제성은 없지만 AI 개발 시 충족해야 하는 7가지 조건을 제시했습니다.

해당 가이드라인은 AI는 인간의 자율성을 보장해야 하며, 사람들이 AI에 의해 조작되어서는 안 되고, 소프트웨어가 내리는 모든 결정에 인간이 개입할 수 있어야 함을 명시하고 있습니다.

[방정미 박사 / 한국행정연구원]
"2018년 4월에 AI 전략을 수립하고 18년에 합동계획을 발표하고 19년에 전문가그룹을 통해서 신뢰할 수 있는 인공지능 윤리기준 권고안을 발표합니다. 그리고 20년에는 인공지능 백서를 발표하고, EU가. 그리고 2021년 4월에 인공지능 법안을 발표했죠."

EU가 제안한 '인공지능 법안' 이른바 'EU AIA'입니다.

EU의 인공지능 법안 핵심 체계는 AI가 초래할 수 있는 위험을 크게 4가지 단계로 구분하고 있습니다.

인공지능 위험을 '수용 불가능한 위험', '고위험', '제한적 위험', '낮은 위험'으로 구분하고, 각 위험 단계마다 차등적으로 의무를 부과하자는 겁니다.

대표적으로 '수용 불가능한 위험'은 법안 제5조에 △무의식적으로 인간을 조작할 수 있는 중대한 잠재성이 있는 경우 △아동·장애인 등 특정한 취약 계층의 취약성을 악용하여 위해를 가할 수 있는 경우 등이 나열돼 있습니다.

'수용 불가능한 위험'의 인공지능은 원칙적으로 금지됩니다.

[방정미 박사 / 한국행정연구원]
"EU의 AU 법안 조문 구성을 보면 타이틀 1에서는 일반조항, 2에서는 금지된 AI, 3에서는 고위험AI 시스템에 대해서 설명하고 있고 4에서는 투명성의 의무에 대해서 보고 있습니다. 그런데 기업이나 일반 규제 수범자 입장에서는 고위험 AI에 뭐가 들어가는지가 중요할 것 같고요."

'국내 AI 법제의 현황, 이슈와 향후 과제'를 주제로 발제를 맡은 윤주호 법무법인 태평양 변호사는 "가이드라인 위반만으로는 법적인 제재는 발생할 수 없다"면서도 "인공지능을 개발·사용할 때 가이드라인을 토대로 반드시 체크리스트를 만들어 위험과 불안요소를 판단할 필요가 있다"고 조언했습니다.

[윤주호 변호사 / 법무법인 태평양]
"가이드라인은 아까 말씀드렸던 것처럼 하나의 사회적인 Norm(규격)을 만들기 위한 아니면 사회적인 뭔가의 합의점을 도출하기 위한 과정에서 만들어진 존재라고 생각하고요. 이런 것들을 지키면 그래도 우리로서는 최대한의 노력을 다한 것, 그런 관점에서 가이드라인은 준수를 해야 한다..."

이후 한국데이터법정책학회장인 이성엽 고려대 교수가 좌장을 맡아 토론이 진행된 가운데, 방송통신위원회 측은 'EU AIA'에 대해 인공지능 법제화를 향해 진일보한 것이라고 평가했습니다.

[배춘환 / 방송통신위원회 이용자정책총괄과장]
"EU의 인공지능 법안이 불명확하고 미흡한 측면이 있기는 하지만 리스크 관리 체계로 규제 패러다임을 전환했다는 점 그리고 정부규제뿐 아니라 자율규제를 혼합해서 인공지능 산업의 혁신 및 사업자와의 협력적 거버넌스를 모색하고 있는 점은 매우 의미가 있다..."

반면 해당 분야에 몸담고 있는 고재희 카카오엔터프라이즈 이사는 업계 종사자로써 AI 법제 가이드라인의 현실적인 문제점을 꼬집었습니다.

[고재희 / 카카오엔터프라이즈 이사]
"우리가 제시할 수 없는 기준에 대해서 컴퓨터에게 제시하는 건 아닐까, 라는 생각도 하고 있고요. 한편으로 편향적인 데이터를 학습함으로써 편향적인 결과가 나올 수도 있지만 학습할 데이터가 부족해서 편향적인 결과가 나올 수도 있다는 점도 고려해봐야 하지 않을까..."

이외에도 토론엔 이상직 태평양 변호사, 윤혜선 한양대 로스쿨 교수, 이재형 과학기술정보통신부 인공지능기반정책과장, 김직동 개인정보보호위원회 신기술정보과장 등이 패널로 참석했습니다.

AI의 발전과 AI가 초래할 수 있는 위험이 공존하는 과도기적인 시기 '현실'과 '혁신' 사이 적정한 대응책 마련이 시급해 보입니다. 법률방송 장한지입니다.

 

저작권자 © 법률방송 무단전재 및 재배포 금지