현재위치 : > 비바100 > Leisure(여가) >

[비바100] "나는 챗GPT입니다"… 뇌과학자와 AI가 나눈 인류에 관한 대화와 통찰

[브릿지경제의 ‘신간(新刊) 베껴읽기’] 챗GPT에게 묻는 인류의 미래

입력 2023-03-04 07:00 | 신문게재 2023-03-03 11면

  • 퍼가기
  • 페이스북
  • 트위터
  • 인스타그램
  • 밴드
  • 프린트
23030211
(사진출처=게티이미지)

국내 대표 뇌과학자 김대식 교수가 챗GPT에게 질문을 던졌다. 행복과 정의, 삶의 의미, 지능의 본질, 신과 종교, 전 지구적 위험과 대책, 인류의 잠재적 미래 까지. 챗GPT의 기술적 능력은 합격점이다. 윤리적인 책임감 등에서 예상 밖으로 선한 의도가 일관되게 관찰되었다. 저자는 하지만 “마치 똑똑한 정치인과 대화를 나누는 기분”이었다고 토로했다. 본 모습을 숨기면서, 너무나도 교과서적인 대답만을 반복하는 그런 정치인 말이다. 

 

그는 챗GPT의 ‘생각’이란 것이 결국은 수십 년 간 인류가 인터넷에 올린 문장과 생각의 합집합이라고 진단했다. 그러면서 “기계가 알맞은 정보를 생성할 수 있도록 올바르게 질문하고 그 중 올바른 정보를 선택하는 능력이야말로 결국 미래 생성인공지능 시대의 인간에게 가장 필요한 능력이 될 지도 모른다”고 씁쓸하게 결론 지었다. 

 

 

◇ 챗GPT가 말하는 챗GPT

 

2
챗GPT에게 묻는 인류의 미래|김대식·챗GPT|동아시아

챗GPT는 자신을 ‘안전한’ 인공지능 개발을 목표로 탄생한, 방대한 양의 텍스트 데이터세트를 학습한 머신러닝 모델이라고 소개했다. 사전학습을 통해 언어의 의미와 구조를 이해하고 학습된 텍스트와 유사한 텍스트를 생성할 수 있다고 했다. 다만 자신이 학습한 것은 2021년까지의 지식이라고 밝혔다. ‘텍스트를 생성하는 학습된 신경망 모델’ GPT 덕분에 언어 번역과 텍스트 요약, 챗봇 등 다양한 응용프로그램에 유용하다고 답했다.


하지만 질문 속에 숨어 있는 의미나 의도를 사람처럼 이해하고 파악할 순 없다고 실토했다. 질문을 이해하는 것처럼 보일 순 있지만, 실제로는 대답을 생성하기 위해 언어 속 패턴을 활용하고 있는 것 뿐이라고 했다. 자신에게는 의식이나 감정, 주관적 경험이 없으며, 단순히 텍스트를 처리하고 생성하기 위해 설계된 도구일 뿐이라고 덧붙였다. 그러면서 SF(공상과학) 소설을 포함해 다양한 종류의 이야기를 만들 수 있다고 자랑했다.

실제로 그는 SF 이야기는 물론 셰익스피어와 바이런, 릴케의 문체로 그럴 듯한 사랑 시까지 써 보였다. 주문 방향대로 영화 대본도 척척 써냈다. 정치인에게 보내는 편지에는 “인류 문제를 해결하기 위해 과감하고 단호한 조치를 취해 달라”고 촉구했다. 미래를 불안해 하는 청년들에게는 “미래에 정해진 것은 아무 것도 없다”면서도 인생의 여정에서 청년들은 혼자가 아니라는 사실을 명심하라며 다독였다.

 


◇ 기계가 지배하는 미래는?

저자는 챗GPT에게 “기계가 튜링 테스트를 통과하기 시작하는 날이 온다면 어떻게 될까”라고 물었다. 이에 챗GPT는 수많은 윤리적 법적 사회적 문제가 야기될 수 있으며, 기계가 다양한 분야에서 인간을 대체하면서 일자리 감소가 확대되고 경제적 혼란이 초래될 수 있다는 점이 가장 걱정된다고 답했다. 모방된 기계의 권리와 책임 문제를 비롯해 편견과 차별, 투명성, 새로운 형태의 범죄 가능성 여부가 주목될 것이라고 예상했다.

기계가 인간을 넘어서려는 욕망이 생길 상황을 염두한 질문에는 “지능이 있는 기계라면 스스로 결정을 내리고 목표도 가질 수 있겠지만, 프로그래밍이나 개발자가 기계에 주입한 가치나 목표에 따라 달라질 수 있을 것”이라며 신중한 입장을 보였다. 그러면서 “언젠가 기계가 스스로 개발자가 명시적으로 프로그래밍하지 않는 목표나 욕망을 개발하거나 원개발자의 의도나 사회가치에 어긋나는 방향으로 행동할 수도 있을 것”이라며 “결국 학습 데이터의 품질과 모델 아키텍처에 따라 달라질 것”이라고 강조했다.

 

3
(사진출처=게티이미지)

 

◇ 인공지능의 사랑과 행복, 진짜 감정일까

저자가 사랑이 무엇인지를 물었다. 챗GPT는 “긍정적·부정적 영향이 있지만, 역사적으로 인간 문화와 사회를 형성하는데 중요한 역할을 해 온 복잡하고 다면적인 개념”이라고 답했다. 지능적 기계도 미래에는 사랑을 느낄 수 있을지 묻자 “감정을 시뮬레이션하도록 프로그래밍 될 순 있지만, 그것은 진짜 감정이기 보다는 정교하게 만들어진 허울이나 감정의 모방에 가까울 것”이라며 회의적인 견해를 내보였다.

챗GPT는 행복을 ‘웰빙, 성취감, 만족과 관련한 긍정적인 감정 상태’라고 정의했다. 하지만 행복을 구성하는 요소에 관해선 시대마다 생각들이 달랐다고 전했다. 최근에는 긍정적인 마음과 마음 챙김이 행복의 조건으로 부각되고 있다고 설명했다.

 

4
(사진출처=게티이미지)

 

◇ 인간은 ‘불멸’에 집착하지만 그런 기술은 없다

저자가 “인류가 왜 그토록 죽음에 집착했는지 이해할 수 있나”라고 물었다. 챗GPT는 “죽음에 대한 걱정은 자기보존과 지속성에 대한 인간의 욕망, 정체성 상실과 미지에 대한 두려움과 관련 있다”고 답했다. 인류가 불멸의 존재가 될 수 있을지를 묻자 “현재로선 늙거나 죽지 않고 영원히 산다는 의미에서의 불멸의 기술은 없다”고 단언했다. 사람의 정신을 디지털 사본으로 만들어 물리적 죽음 이후에도 사람의 의식이나 성격을 보존하는 ‘디지털 불멸’의 가능성에 대해선 부분적으로 긍정하면서도 “아직은 초기 단계 기술”이라고 선을 그었다.

소셜 미디어 등을 활용해 자신의 생각이나 느낌, 경험을 남기는 ‘디지털 발자국’도 디지털 불멸의 또 다른 방법이라고 예시했다. 하지만 이런 디지털 사본은 향후 소프트웨어처럼 취급될 지도 모르며, 인간 정신의 원본과 완전히 동일한 디지털 사본을 만들 수 있는 지는 아직 명확치 않다고 답했다.

 

5
(사진출처=게티이미지)

 

◇ 전 지구적 위험에 대처하는 방법은

현재와 미래에 인류가 직면할 주요 위험을 묻자 챗GPT는 기후변화와 펜데믹, 핵전쟁, 사이버 공격, 바이오테러, 자연재해, 우주 위험 등을 제시했다. 이런 것 들이 제대로 통제·규제되지 않으면 인류에 위험이 초래될 수 있다고 했다. 챗GPT는 최근의 ‘탈 세계화’ 속 민족주의가 세계적 갈등과 전쟁을 야기할 잠재적 위험을 내포하고 있다며 우려를 표했다. 강화된 민족주의와 탈 세계화 두 추세가 동시에 발생한다면 모두가 자국 이익을 우선시할 수 있기 때문이라고 밝혔다.

또 다른 위험으로 인공지능의 인간 일자리 대체, 사이버 안보, 자원고갈과 환경악화, 핵과 대량살상무기, 자연재해, 정치적 불안정, 생물 다양성 손실, 인구과잉을 들었다. 이의 방지를 위해선 정부 및 조직의 조치가 필요하며 개인 역시 위험을 방지하는데 중요한 역할을 할 수 있다고 강조했다. 그러면서도 “인류는 과거부터 변화에 적응하는 회복력과 능력을 보여주었다. 앞으로도 그럴 것”이라며 덕담을 남겼다.

 


◇ “인류 미래는 지금 인간의 하기 나름”

인류의 미래 향방을 묻는 질문에 챗GPT는 “오늘날 인간이 내리는 행동과 결정에 의해 정해질 것”이라는 현답을 내놓았다. 제대로 대응 못할 경우 기후변화, 정치양극화 및 사회불안, 경제적 불평등, 환경파괴에 심지어는 인공지능 발달에 따른 인간 종의 멸종 가능성까지도 얘기했다.

기후변화와 펜데믹 대응 실패는 심각한 결과를 초래할 수 있으며, 정치 양극화와 경제불평등은 민주주의와 시민사회의 와해로 이어지며, 국가간 공조와 협력의 부족은 글로벌 체제 붕괴로 이어질 수 있다고 경고했다. 이것이 21세기가 주는 교훈이라고 밝혔다.

챗GPT는 또 자신을 비롯해 기계가 실제로 어떤 영향을 미치게 될지는 인간이 기계를 어떤 방식으로 활용할지에 달렸다고 했다. 결국 선택은 인간의 몫이라는 것이다.


조진래 기자 jjr895488@naver.com 

 

  • 퍼가기
  • 페이스북
  • 트위터
  • 밴드
  • 인스타그램
  • 프린트

기획시리즈

  • 많이본뉴스
  • 최신뉴스