현재위치 : > 비바100 > Life(라이프)

[비바100] AI 초지능·초연결 사회, 인류 향해 반기 든다면?

[안종배 회장의 인공지능 메타버스 미래세상] 인류 미래를 좌우하는 인공지능 윤리

입력 2022-03-21 07:20 | 신문게재 2022-03-21 11면

  • 퍼가기
  • 페이스북
  • 트위터
  • 인스타그램
  • 밴드
  • 프린트
22060803

인공지능이 우리 삶과 생활, 나아가 인류를 변화시키고 있다. 그 영향력이 커지면서 인류의 미래 방향을 결정짓는 역할까지 하게 될 것으로 보인다. 하지만 인공지능의 발전은 인류에게 축복이 될 수도, 재앙이 될 수도 있다. 인공지능 윤리가 더욱 중요해지는 이유다. 인공지능이 인류에 축복이 될 수 있도록 지금부터 전 세계가 함께 노력해야 할 것이다.


◇ 증대되는 인공지능 윤리의 중요성
 
2022031901010008494_p1

인간이 만든 AI 컴퓨터 전략 방어 네트워크가 스스로 지능을 갖추면서 핵전쟁의 참화를 일으킨다. 30억 인류는 잿더미 속에 묻혀 버린다. 살아남은 인간들은 기계의 지배를 받아 시체 처리 일 등에 동원된다. 지금부터 38년 전인 1984년에 개봉됐던 영화 <터미네이터>의 내용이다.

2022031901010008493_p1
인류의 지능을 뛰어넘는 인공지능에 인류가 굴복당하는 미래를 그렸던 영화 <터미네이터>.

인공지능의 급속한 발전은 우리 인류에게 유익한 것인가, 아니면 <터미네이터>나 <메트릭스>, <아이로봇>. <아일랜드>에서 묘사된 것처럼 인류에게 재앙인가? AI 발전으로 자연을 정복하고 관리하며 인간이 더욱 편리하고 행복하게 만들 것이라는 낙관론과 함께 AI 발전이 오히려 인간의 행복을 해치며 재앙이 될 수도 있다는 논쟁이 여전하다. 분명한 것은 <사피엔스>의 저자 유발 하리리의 주장처럼 그것이 ‘인류의 의지’에 달려 있다는 사실이다. AI 발전으로 초지능·초연결 사회가 구현되고 AI가 인류 모든 지능의 합을 넘어서는 ‘싱귤래리티(Singularity)’ 시대가 다가오면서 인공지능 윤리의 중요성이 더욱 부각되고 있다. 

이는 인류의 미래가 달린 중요한 문제다. 지금 제대로 대응하지 않으면 때를 놓쳐 돌이킬 수 없는 재앙이 도래할 수 있다는 우려가 높다. 필자를 포함한 미래학자와 세계적 석학들은 모두 인공지능의 윤리, 규제 관련 논의가 지금 당장 필요하다고 주장한다. AI 발전과 개발이 인류 미래에 유익하도록 전 세계가 관련 윤리와 법제를 논의·실행하는 것이 중요해지고 있다.
 

◇ 해외의 인공지능 윤리 활동

해외에서는 AI의 급속한 발전에 따른 부작용을 사전에 예방해야 한다는 의식이 강하다. 미국과 일본 유럽은 국가 차원의 AI 윤리 정책을 만들고 있다. 특히 인공지능 발전을 도모하면서도 윤리적 규정을 만들어 지키게 한다. 아실로마 AI 원칙, EU 로봇 민법, 일본 총무성 AI 개발 가이드라인, 미국 국방위고등연구계획국(DARPA)의 ‘설명할 수 있는 인공지능(XAI)’ 프로젝트 등이 대표적이다. 국제기구 차원에서도 OECD와 미국 전기전자학회(IEEE), 국제인권 감시기구 등이 작동하고 있다.

2022031901010008498_p1
‘아실로마 AI 원칙’은 인공지능이 인류에 유용해야 하며, 특히 인간의 존엄성과 권리를 해쳐선 안된다고 명시했다.

미국 보스톤 소재 비영리 연구단체인 인류미래연구소(Future of Life Institute)는 2017년 1월 캘리포니아 아실로마에서 ‘이로운 인공지능 컨퍼런스(Beneficial AI conference)’에서 논의한 내용을 기초로 ‘인공지능의 23개 원칙’이라는 ‘아실로마 AI 원칙(ASILOMAR AI PRINCIPLES)’을 발표했다. 스티븐 호킹 박사, 테슬라와 구글 딥마인드의 CEO인 일론 머스크와 데미스 하사비스 등 모두 2000명의 과학계와 기술계 인사들이 이 원칙을 지지했다.

연구 이슈(Research Issues)에서 5개, 윤리와 가치이슈(Ethics and Value Issues)에서 13개, 장기적 이슈(Longer-term Issues)에서 5개의 원칙이 도출됐다. 첫 번째는 AI 연구의 목표가 ‘목적 없는 지능’이 아닌, 인간에게 유용하고 이롭고 혜택을 주는 지능을 개발하자는 것이다. 두 번째는 AI 시스템이 인간의 존엄성과 권리, 자유 및 문화 다양성의 이상과 양립할 수 있도록 설계되고 운영되어야 한다는 것이다. 세 번째는 합의된 여론 없이 인공지능이 인류에게 가져올 미래에 대한 결정론적 가설은 삼가야 한다는 것이다.

미 국방위고등연구계획국(DARPA)이 2017년부터 추진 중인 ‘XAI(eXplainable AI) 프로젝트’는 사용자가 AI 시스템의 동작과 최종 결과를 올바르게 해석해 그 결과물이 생성되는 과정을 설명 가능하도록 해주는 기술이다. 특히 AI 시스템의 잘못된 결과로 분쟁이 생길 경우 원인 파악 및 개인정보보호 규정 준수 여부 검증 등이 가능해 사전 예방과 사후 대책이 가능하다.

2022031901010008497_p1
‘인공지능 파트너십’에 참여한 글로벌 플랫폼 기업들을 포함해 많은 기업들이 인공지능의 윤리성 강화를 기반으로 한 규정을 준수하려 노력하고 있다.

전 세계 인공지능 기술과 서비스를 선도 중인 구글과 아마존, 페이스북, MS, IBM 등 5개 기업도 2016년 ‘AI 파트너십’을 결성해 자율적 규제와 가이드라인을 만들었다. 2017년에는 애플도 합류했다. 이들은 사내에 ‘AI 윤리 위원회’를 설치해 AI의 유해한 개발을 사전에 막고, 유익한 방향으로 AI를 개발하도록 윤리성을 강화하고 있다. AI의 안전성 및 프라이버시 이슈에 대처하고 AI의 윤리적 사용을 적극 지원한다는 목표로 상호협력하고 있다. 

유럽연합(EU)은 유럽로봇연구네트워크(EURON)를 통해 로봇 윤리 로드맵을 추진 중이다. 2007년 국제로봇자동화학회(ICRA)는 로봇이 윤리·사회·경제적 문제를 야기할 것으로 전망했다. 이에 각각의 기준에 대한 철저한 검증을 요구하면서 로봇 윤리의 영역을 8가지로 분류하고 ‘로봇 윤리 13개 원칙’을 제시했다.

2022031901010008496_p1
유네스코가 발행하는 <쿠리어>의 인공지능 윤리 관련 인터뷰 기사.

EU 집행위원회는 2019년 4월 8일에 AI 윤리 가이드라인(Ethics guidelines for trustworthy AI)을 제정·공표 했다. 모든 시민이 인공지능 혜택을 누릴 수 있는 인간 중심의 윤리적 목적을 달성하는 동시에 신뢰할 수 있는 AI의 기술 발전 기준을 마련하고 AI가 반드시 지켜져야 하는 세 가지 원칙을 제시했다. 첫째, 합법적이어야 하며 모든 관련 법규를 준수해야 한다. 둘째, 윤리적이어야 하며 윤리적 원칙과 가치를 준수해야 한다. 셋째, AI 시스템이 의도하지 않은 결과를 초래할 수 있으니 기술 및 사회적 관점 모두에서 견고해야 한다.

AI 윤리 가이드라인에 따르면 AI는 인간의 자율성을 보장해야 한다. 사람들은 AI에 의해 조작되어서는 안 되며, 소프트웨어가 내리는 모든 결정에 개입할 수 있어야 한다. AI는 기술적으로 안전하고 정확해야 하며, 외부공격과 타협해선 안 된다. AI가 수집한 개인정보는 안전하게 보장되어야 한다. AI 시스템을 만드는 데 사용된 알고리즘과 데이터는 사람이 이해하고 설명할 수 있어야 한다. 특히 AI는 연령과 성별 인종 등을 차별해선 안되며, 지속 가능하고 검증 가능해야 한다.


◇ 국내의 인공지능 윤리 활동

국내에서도 세계 최초로 ‘로봇 윤리 헌장’이 제정되는 등 인공지능 윤리와 관련한 다양한 지침들이 만들어져 적용되고 있다. 인공지능을 비롯한 지능정보기술 의 발전이 가져올 인간과 기계 간 경쟁 구도를 사전에 예방하고, AI 기술을 활용한 로봇 등이 인간의 통제 내에서 유익하게 활용될 수 있도록 하기 위함이다.

2022031901010008495_p1

산업자원부는 2007년 로봇 관련 전문가들을 중심으로 ‘로봇 윤리 협의체’를 구성해 세계 최초로 ‘로봇 윤리 헌장 초안’을 마련했다. 로봇 산업이 지향해야 할 로봇 기술과 윤리적 한계, 로봇 제조자의 책임, 로봇의 개조와 파괴 등에서의 사용자 윤리 등을 정립하고자 했다. 초안은 21세기 내에 감성과 지능을 가진 로봇이 등장할 것임을 전제로 깔았다. 인간과 로봇이 함께하는 미래사회가 부정적인 방향으로 가지 않도록 사전에 대비하고, 상호 존중·협력 할 수 있는 미래사회 실현을 희망했다.

로봇윤리헌장은 인간이 로봇의 도움과 협력으로 보다 편리하고 건강하며 안전하고 행복한 삶을 보장해 줄 것이라 기대했다. 인간 본연의 가치인 사랑과 예술을 창출할 수 있는 미래사회가 보다 긍정적이고 바람직한 방향으로 가도록 지혜를 모아야 한다고 했다.  새로운 인간과 로봇의 미래사회는 지금 우리의 준비와 결정에 달려 있는 만큼, 인간과 로봇이 함께하는 풍요롭고 수준 높은 미래사회를 실현하기 위해 ‘인간 중심의 윤리 규범’을 천명한다고 했다.

우선, 인간과 로봇은 상호 간 생명의 존엄성을 존중하며 정해진 권리와 정보윤리 및 공학윤리 등의 공동 원칙을 보호하고 지켜야 한다고 했다. 인간은 로봇을 제조하고 사용할 때 항상 ‘선(善)’한 방법으로 지혜롭게 판단하고 의사결정해야 한다. 로봇은 사용자인 인간의 친구이자 도우미, 동반자로 인간의 명령에 순종해야 한다. 로봇 제조자는 헌장을 준수해야 할 제1 책임자로서 인류와 공생하기에 적합하고 사회적 공익성과 책임감에 기반한 로봇을 만들어야 한다. 로봇 사용자는 로봇을 존중하는 마음으로 법규에 따라 사용하되 로봇 남용을 통한 중독 등에 주의해야 한다고 했다.

과학기술정보통신부도 2018년 12월에 ‘지능정보사회 윤리 가이드라인’을 발표했다. 4차 산업혁명으로 지능정보기술의 급속한 발전에 따른 사회적 부작용 우려를 해소하고, 지능정보기술 발전이 인간 중심의 지능정보사회 구현에 기여할 수 있도록 4대 원칙, 38개 세부 지침을 작성했다. 4대 원칙은 △공공성 △책무성 △통제성 △투명성이다. 세부 지침에는 개발자와 공급자, 이용자의 역할과 책임 등을 담았다.

2022031901010008492_p1
국제미래학회가 2020년에 발족한 ‘대한민국 인공지능메타버스포럼’은 각계 의견을 수렴해 인공지능과 메타버스의 윤리 가이드라인을 만들고 있다.

필자가 회장을 맡고 있는 국제미래학회는 국회미래정책연구회와 공동으로 2020년에 ‘대한민국 인공지능메타버스포럼’을 발족했다. 인공지능과 메타버스 전문가와 법조 및 사회 분야별 전문가 200명으로 구성되었다. 인공지능과 메타버스가 과학 기술 정치 경제 인문 사회국방 환경 ICT 의료 미디어 문화 예술 교육 직업 윤리 등 제 분야에서 건강하게 활용될 수 있도록 인공지능과 메타버스 진흥과 윤리 정책과 법제 연구를 수행함을 목적으로 한다. 포럼은 ‘인공지능과 메타버스 발전 기본법’을 제시하고 여기에 인공지능과 메타버스 윤리 가이드라인을 포함시키기 위해 계속 각계의 다양한 의견을 수렴하고 있다.

안종배 국제미래학회 회장·대한민국 인공지능메타버스포럼 공동회장 daniel@cleancontents.org 

  • 퍼가기
  • 페이스북
  • 트위터
  • 밴드
  • 인스타그램
  • 프린트

기획시리즈

  • 많이본뉴스
  • 최신뉴스