Search
  • MAILab2021

“착한 AI,” “좋은 AI,” 윤리적인 인공지능

2021.10.12. 지은이 양필승



미국서부 영화 <The Good Guys and the Bad Guys>(1969) 포스터


1. 한국 제조업체 39% AI 활용 중? 구글 조사에 대한 문제점

2. 코로나 방역 기술, 특히 우리 AI는 너무나 보잘 것 없습니다!

3. 마스크가 일상화된 지금, 탈레반의 승리로 보안에 비상등이 켜졌습니다. 솔루션은 비전AI!

4. 델타변이와의 전쟁, 그래도 마스크 밖에 없다는데. 그 답은 AI!

5. 전자발찌 살인마 얼굴, “못 알아보게 바뀌었어도,” AI는 알아본다!

6. 페미니스트 AI, 물론 가능하고 당연합니다!

7. 당신의 AI는 계속 러닝이 가능합니까.

8. 시니어 AI, 시니어를 위한 AI가 아닌 시니어에 의한 AI

9. “착한 AI,” “좋은 AI,” 윤리적인 인공지능

10. 그래픽 데이터 분석과 예측은 “위드코로나” 성공의 키


무슨 기술이든 혁신적인 만큼 그에 상응하는 크기의 논쟁을 불러일으킵니다. 대개 가장 큰 이슈가 “혁신은 곧 실직”이라는 점에서 비롯됩니다. 유럽의 산업혁명으로 기계가 등장하자 수공업자들이 실직하면서 사회적 갈등이 심각해졌습니다. 결국 시간은 혁신의 편을 손 들어 주었고, 노동생산성의 획기적 향상으로 경제발전이 이뤄졌습니다. 일부 수공업자들은 공장노동자 또는 기업가로 변신하였고, 일부는 아예 일자리를 잃게 되거나 농촌으로 돌아 갔습니다. 물론 그들의 후손 대부분은 산업혁명의 견인차로서 역할을 다하였습니다.


인공지능 역시 일자리 때문에 호불호(好不好)가 갈립니다. 인공지능의 효과로 자동화가 급속하게 진전될 것은 틀림없는 사실입니다. 결국 일자리가 줍니다. 물론 인공지능으로 말미암아 새로운 일자리가 생긴다는 것도 확실합니다. 얼마를 잃고 얼마를 얻을까요. 인공지능의 득실을 일자리로 계산한 보고서가 이미 여럿 나왔습니다. 비관론도 많지만 여기에서는 낙관론 하나를 소개하면, ‘월드 이코노믹 포럼’의 “Future of Jobs Report 2020”입니다. 2025년경까지 8천5백만 개 일자리가 사라지고 9천7백만개 일자리가 새로 등장할 것이라고 예측하였습니다 ( https://www.weforum.org/reports/the-future-of-jobs-report-2020 ). 주로 반복적이고 위험한 일자리가 인공지능에 의한 자동화로 위협받을 것이라고 분석하였습니다.


단순노동자만 위협을 받는 것은 아닙니다. 의사나 변호사와 같은 전문직도 위협을 받습니다. 예를 들어, 방사선과 의사들은 상당 수 자신들보다 똑똑한 인공지능, 특히 비전AI에 의해 일자리를 잃게 될 것이며, 실제로 미국에서 의대생들은 영상의학과에 지원하는 숫자가 점점 줄고 있습니다 (https://www.auntminnie.com/index.aspx?sec=sup&sub=aic&pag=dis&ItemID=133677 ). 물론 반드시 객관적인 상황 때문에, 의대생의 영상의학 기피와 인공지능 기술을 연계시킬 수 없습니다. 오히려 영상의학이 인공지능에 의해 더욱 발전할 수 있으리라고 전망하는 전문가도 많습니다. 실제로 메일랩은 선천성 심장병(CHD: Congenital Heart Disease) 진단을 비전AI로 자동화하는 알고리즘을 개발 중입니다만, 오히려 의사를 줄이는 것보다 의사의 숫자를 늘릴 것으로 전망합니다. 단지 인공지능 기술로 환자들이 조기의 진단을 통해 생명과 건강을 보다 쉽고 빠르게 보호할 수 있다고 믿습니다.


그런데 인공지능을 둘러싼 논쟁에는 이전의 혁신과는 아주 다른 측면이 하나 있습니다. 바로 윤리적인 이슈입니다. 기술 속성 때문일까요 아니면 시대의 변화 때문일까요. 지금까지 인공지능의 윤리를 다룰 때, 왕왕 소홀히 바라 보는 측면이 바로 시대의 변화에 따른 시각의 변화입니다. 산업혁명 때 스팀엔진과 기계가 등장하고, 이후 전기가 사용되며, 다시 컴퓨터가 삶의 일부로, 나중에 인터넷이 일상화되는 과정에서 시대의 변화는 무시할 수 없습니다. 무엇보다도 개인의 자유와 평등이 이전 농업시대와는 달리 획기적인 향상을 이뤘습니다.


따라서 인공지능의 윤리문제를 다룰 때, 변화된 사회 구조와 변화된 의식 구조를 빼 놓고 이야기하는 경우가 많은 것은 대단히 유감입니다. 이전의 혁신보다도 인공지능의 시대는 보다 많은 개인의 자유와 인간의 평등이 신장되고, 바로 그 같은 변화된 잣대로 인공지능을 바라 보며, 인공지능의 윤리 문제를 다룰 수밖에 없습니다. 다시 말해, 인공지능이 개인의 자유를 억제하고 개인 사이의 평등 관계를 손상시키며, 무엇보다도 프라이버시를 침해하는 측면에 대해 이전과는 달라진 윤리적 잣대로 관찰할 수밖에 없는 것입니다.


다른 한편으로, 인공지능의 기술적 측면이 이전의 다른 혁신과는 다르고, 특히 윤리적 이슈를 초래한다는 사실 역시 부정할 수 없습니다. 10여년 전 데이터에 기반한 딥러닝(deep learning)이 등장함으로써, 인공지능의 윤리 문제는 또 다른 차원으로 옮겨 갔습니다. 데이터는 개인의 프라이버시를 담고 있으며, 데이터를 통해 학습한 알고리즘은 각종의 편견을 지니고 있습니다. 다시 말해, 평등한 인간관계를 왜곡시키고 있는 것입니다. 남성과 여성 그리고 제3의 성 사이에 평등 (이전의 글 참조: “페미니스트 AI, 물론 가능하고 당연합니다!), 흑인과 황색인, 그리고 백인 등 인종 사이의 편견 등, 인공지능의 객관성 내지 절대성을 외피로 수 많은 편견과 왜곡이 정당화될 수 있는 가능성을 인정하지 않을 수 없습니다.


더욱이나 인공지능의 획기적 혁신은 생산성이나 인간 행복의 증진 못지 않게 폭력성을 동반합니다. 최근 인공지능 기능, 특히 비전AI가 탑재된 드론으로 이란 수비대 총사령관이 자동차 안에서 저격된 사건이 발생하였습니다. 보다 최근에는 이란의 핵무기를 개발한 책임자가 인공지능으로 작동하는 로봇에 의해 살해되었습니다. 더 이상 제2차 세계대전 중에 공포의 무기로 등장한 일본의 카미카제는 필요 없고 드론으로 대처할 수 있으며, 카미카제처럼 저공으로 날아 무작정 부딪히는 대신 비전AI로 정확하고 오류가 적은 타격을 가할 수 있습니다.


인공지능, 특히 비전AI 발전의 주도권을 둘러싼 패권경쟁이 현재 미중 경제갈등 내지 미중 기술전쟁의 핵심에 자리잡고 있습니다. 비전AI의 군사적 용도는 무한 확장적입니다. 실제 비전AI를 활용한 각종 육해공군의 무기가 미국과 중국에서 쏟아져 나오고 있습니다. 그야말로 잔인한 살상무기의 발달이 인공지능에 의해 현재 활발하게 이뤄지고 있습니다.


이러한 인공지능의 부정적 기능에 대비하여 생산적이고 윤리적인 인공지능을 부각시킬 수 있습니다. 기후변화에 효과적 대응수단으로서 인공지능, 인신매매를 방지하는 수단으로 인공지능, 식량문제를 해결하는 스마트팜의 핵심기술로서 인공지능, 맞춤형 학습을 통해 교육 평등을 제고시키는 인공지능, 이루 말할 수 없는 분야의 인공지능이 시도되고 실제로 인간 삶의 질을 크게 향상시킵니다.


우리의 과거 역사를 통해서 확인할 수 있듯이, 기술발전은 인간의 선택사항이 아닙니다. 단지 시간의 문제이기 때문에, 무한경쟁의 시대인 오늘날 우리는 인공지능의 윤리성에 무한정 매몰될 수만은 없습니다. 인공지능의 윤리문제를 정면으로 다룬 EU가 처음에는 “윤리가이드”(Ethics guidelines for trustworthy AI) 그리고 이어 “규제안”(Artificial Intelligence Act)을 등장시키자, 비판론자들은 인공지능 기술의 발전에 앞서 지나치게 규제가 먼저 선행된다면 결국 EU 국가는 AI경쟁에서 뒤질 뿐 아니라, 후진 인공지능으로 선진 인공지능을 추격하기 위해 종국에는 선진 인공지능보다 더 무리한 비윤리적 인공지능을 발전시키는 딜레마에 빠질 가능성을 경고합니다.


선(先) 윤리 또는 선(先) 규제를 논의하기 앞서, 인공지능은 현실적으로 윤리와 혁신이 함께 갈 수밖에 없습니다. 특히 인공지능 기술을 연구하고 개발하는 조직과 사람들은 윤리적 가치를 늘 마음에 두고 일해야 마땅합니다. 한 걸음 더 나아가, 동료와 커뮤니티가 “나쁜” 또는 “악한” 인공지능을 연구하고 개발하는 사람들을 배척하고 그들과의 공유를 거부하는 방법으로, 자체 정화노력을 게을리하지 말아야 마땅합니다.


메일랩은 회사 설립부터 창립자 3인 나름대로 윤리장전을 만들고, 홈페이지에 공개하였습니다. 아래는 홈페이지 https://www.megaailab.com/ethics-principles 에 게재된 윤리장전(Ethics Principles)입니다.


Mega AI Lab, 이하 MAILab은 AI가 더 나은 인류사회를 위해 도움이 되고, AI로 인한 변화는 문명의 전환을 가져올 만큼 심대하다고 믿는다. 이미 몇몇 윤리적 문제를 발생시킬 가능성도 경고 되었음을 MAILab은 잘 알고 있으며, 그 같은 경고로 말미암아 AI 기술 자체의 발전이 결코 저해되어서는 안 된다는 믿음도 동시에 MAILab은 갖고 있다. 이러한 맥락에서 몇 가지 윤리적 원칙을 스스로 세우고, MAILab은 최선을 다해 준수하겠다는 뜻에서 공개적으로 MAILab의 윤리적 원칙, 즉 MAILab Ethics Principle을 천명한다.


1. 원천적으로 AI와 관련 기술이 상당 부분 설명(explainable)되지 않는 부분이 있지만, MAILab은 최선을 다해 공개적인 방식으로 설명(explaining)하도록 노력한다.

​2. Data의 속성에 의해 각종 편견(bias)가 AI의 솔루션과 알고리즘 및 어플리케이션에 잠재하고 있는 문제를 인정하고, MAILab은 지속적인 연구와 개발을 통해 그 같은 편견(bias)를 극복하고자 노력한다.

3. AI 기술을 개발하고 응용하는 과정에서 MAILab은 개인의 프라이버시(privacy)를 침해하는 문제가 발생할 소지가 많음을 스스로 인정하고, MAILab은 비용과 생산성을 고려하지 않고 개인의 프라이버시 보호 (privacy protection)를 위한 기술적, 윤리적 노력을 아끼지 않는다.

4. AI산업에서 정보유출(Information leakage)의 문제는 데이터 유출(Data Loss )만큼 심각한 문제로, MAILab은 무엇보다도 우선적으로 기술적 노력에 의해 정보유출 (Information leakage)의 방지에 노력하고, 동시에 끊임없는 내부 교육을 통해 정보유출(Information leakage)을 예방한다.

5. AI가 비인도적인(inhumane) 목적과 용도로 사용될 수 있는 가능성을 MAILab은 충분히 알고, 개발과 사업 수행에 있어서 인도적(humane) 고려를 무엇보다도 우선한다. 이는 인간중심 AI (human-centered AI)를 추구하는 MAILab의 설립 취지에 터잡는다.

6. AI, 특히 현재 MAILab이 초점을 맞춘 Vision AI 기술은 인권침해(human rights violations)를 위해 사용될 소지가 높고, 이미 일부 사회에서는 인권침해(human rights violations)의 결과를 야기하고 그에 대해 불만을 털어 놓는 시민들이 적지 않다는 사실을 직시하고, 인권침해(human rights violations)의 가능성이 높은 AI기술은 개발하거나 응용하지 않는다.


​2020.8.25

MAILab 공동 창업자, 문영식, 심영택, 양필승


메일랩이 실제 최초로 개발한 QSS Integrated Solution은 방역(Quarantine)-보안(Security)-안전(Safety)를 동시에 해결하는 소프트웨어-하드웨어-서비스로서, 코로나가 전 세계를 휩쓴 시점에서 인류에게 절실하게 필요한 3가지 문제, 즉 방역, 보안, 안전을 해결하는 솔루션을 통해, 인공지능은 “착한 것” 또는 “좋은 것” (Good AI)를 사람들에게 체험시켜 보겠다는 뜻에서 연구/개발하였습니다. 이 같은 숭고한 취지에 걸맞게, 메일랩은 세계 최초로 기존의 한 가지 기능에 멈춘 Narrow AI에서 다기능을 갖춘 General AI로 진입하는 기술력을 확보하였던 것입니다. 결국 메일랩의 QSS Integrated Solution은 창업자들이 함께 작성한 메일랩의 윤리장전(Ethics Principles)에 터잡았던 것입니다.


이제 인공지능에 대해 “좋은 놈이냐 나쁜 놈이냐”(good guys or bad guys)와 같은 이분법을 통해 기술비관주의나 기술낙관주의에 선택적으로 빠질 필요가 없습니다. 아니 그 같은 이분법은 인간사회의 선한 발전에도 장애가 됩니다. 특히 기술 포퓰리즘에 빠질 때, 국가나 사회는 후진성을, 인류전체는 절망을 경험하게 됩니다. 언론이 바로 그 같은 양극단적인 인공지능 윤리문제를 보다 개방적이고 투명한 논의의 장으로 이끌어 가는데 선도적인 역할을 담당할 때, 언론은 인공지능의 발전에 크게 기여할 수 있을 뿐 아니라, 언론 자체가 혁신적이 될 수 있으며 “착한 언론” 또는 “좋은 언론”으로 자리 매길 수 있지 않을까 생각합니다.



참조:

지은이 양필승: 1957년생. 미국 UCLA 중국현대사 박사. 전 건국대학교 교수와 현 한국뉴욕주립대 석좌교수, 현 중국 칭화대학 겸임교수, 현 중국 지린 메트로폴리탄 기술교육대학 총장, 1999년 CKT그룹 설립, 2018년 매경 세계지식포럼 AI부문 좌장, 2019년 MAILab 메일랩 설립 CEO.


MAILab (메일랩) www.mailab.co.kr : 자체 엔진인 i2Brian과 Vision AI Framework, MEGA Image AI Platform 및 MEGA Industrial AI Platform에 터잡아 QSS 통합 솔루션으로 방역, 보안 및 안전에 대한 인공지능 솔루션을 상품화하고, 미국, 캐나다, 중국, 인도에 엔지니어링과 마케팅 조직을 통해 QSS Integrated Solution 등 Industrial AI, 선천성 심장병 알고리즘 등 Medical AI, Robotic Intelligent Fulfilment Service 등 Logistic AI, 스킨케어와 메이크업 제품의 판매 및 생산을 위한 Beauty AI 등을 개발하고 있습니다.


문의: sryoo@ckt21.com

010-2058-6585 (류성렬)


5 views