“챗GPT 시대, 노동에 대한 질문 던지는 공론의 장 필요”
“챗GPT 시대, 노동에 대한 질문 던지는 공론의 장 필요”
  • 임혜진 기자
  • 승인 2023.08.07 14:10
  • 수정 2023.08.07 14:10
  • 댓글 0
이 기사를 공유합니다

박태웅 의장 “AI가 패턴화된 정신노동 대체할 가능성 높다···
정책 결정에 앞서 AI가 노동과 삶에 어떤 영향 미칠지 논의돼야”

[리포트] 노동이 챗GPT 시대를 준비하려면 

지난 7월 21일 서울 중구 공간채비 메인홀에서 박태웅 한빛미디어 이사회 의장이 특강을 진행하고 있다. ⓒ 참여와혁신 천재율 기자 jycheon@laborplus.co.kr
지난 7월 21일 서울 중구 공간채비 메인홀에서 박태웅 한빛미디어 이사회 의장이 특강을 진행하고 있다. ⓒ 참여와혁신 천재율 기자 jycheon@laborplus.co.kr

챗GPT의 등장은 인공지능(AI)에 대한 기대와 우려를 동시에 발생시키고 있다. AI가 더 많은 편의를 제공해 사람의 삶을 윤택하게 할지, 인간의 노동을 대체해 일자리를 위협하는 존재가 될지 등이다. 이에 “사회 각 분야의 사람들이 함께 AI에 관한 질문을 모으고 답을 찾아가는 공론의 장이 필요하다”는 의견이 제시됐다.

지난달 21일 서울 중구 공간채비 메인홀에서 ‘ChatGPT 시대, 노동의 변화와 미래’를 주제로 한 특강이 열렸다. 오랫동안 IT 분야에 종사하며 관련 정책 개발에도 참여해온 박태웅 한빛미디어 이사회 의장이 강사를 맡았고, 서울노동권익센터가 주최했다.

대화형 인공지능, 챗GPT
기계어 아닌 사람의 말로 소통

챗GPT(ChatGPT)는 미국의 오픈AI가 개발한 대화형 인공지능 서비스다. 글을 생성하는(Generative) AI로 약 3,000억 개의 단어와 5조 개의 문서를 사전 학습했다(Pre-trained). 딥러닝(심층학습)을 기반으로 주어진 문장의 다음에 어떤 단어가 배치될지 확률적으로 예측한다(Transformer). 핵심 키워드를 파악해 언어를 추론하고 생성하는 것이다.

컴퓨터가 사람의 지능을 가지고 일을 대신하게 하기 위한 시도는 계속 있었다. 초반에는 사람이 기계에 일일이 정보를 입력하는 것부터 시작했다. 그러나 입력된 정보가 많아질수록 오류가 발생했다. 컴퓨터가 예외에 대처하지 못했기 때문이다.

이후 특징 하나하나에 가중치를 부여하고(매개변수) 해당 수치를 바꿔서도 적용해보는 시뮬레이션 즉 딥러닝을 컴퓨터 학습에 활용했다. 반복적인 시행착오를 통해 잠재된 패턴을 학습한 지금의 AI는 정보를 이해하고 생성하는 작업이 과거보다 훨씬 높은 수준에 이르렀다. 특히 챗GPT는 단기기억을 활용해 말의 전후 맥락을 파악하고 결과물을 만드는 능력을 갖추게 됐다.

박태웅 의장은 “예전에는 사람이 기계에 일을 시키려면 자바 등 기계어를 익혀야 했다”며 “하지만 챗GPT는 사상 최초로 사람의 말인 자연어를 컴퓨터에 입력하고 일을 시킬 수 있게 됐다. 엄청나게 많은 사람들이 챗GPT에 열광한 이유”라고 설명했다.

잠재된 패턴 있는 곳, AI로 대체 가능?
거짓말, 데이터 오염 등 한계도 존재

챗GPT는 수많은 정보를 분석해 잠재된 패턴을 찾는 데 능하다. 따라서 사람이 하는 일 중 뚜렷한 패턴이 있을수록 챗GPT는 빠른 연산을 통해 확률적으로 정답에 가까운 결과물을 도출한다. 이 경우 사람을 대체할 가능성은 커진다. 예를 들면, 컴퓨터 프로그래밍, 법률사무직, 일기예보나 스포츠 경기 결과 보도를 하는 기자 등의 분야다.

지금의 AI는 사람의 패턴화된 정신노동 등을 쉽게 한다. 반면 쉬운 일은 어렵게 하는 한계도 있다. 확률적으로 찾을 필요가 없는 질문에는 명백한 단 하나의 사실만이 정답이 된다. 대표적으로 다섯 자리 이상의 더하기 또는 빼기 결과 등이 그렇다. 그런데 챗GPT는 이런 질문에 제대로 답을 하지 못한다. 인터넷에 올라온 정보가 부족하기 때문이다.

챗GPT는 질문의 답변을 하는 과정에서 거짓말을 하기도 한다. 인터넷에 정확한 정보의 총량이 많지 않다면, 확률적으로 가장 그럴듯한 답을 내놓는 것이다. 이와 관련해, 미국의 한 변호사가 챗GPT를 통해 찾은 판례를 인용해 변론문을 쓰고 법원에 제출했지만, 인용한 판례 일부가 가짜로 판명나 벌금형을 선고받은 일도 있다.

박태웅 의장은 챗GPT가 생성하는 자료가 늘어날수록 무엇이 원본인지 알 수 없는 상황에 이를 수 있다고 말했다. 박태웅 의장은 “가까운 시일 내에 인터넷에 올라온 그림의 절반 이상이 AI가 그린 그림일 수 있다. 그런데 AI는 인공지능이 그린 그림과 사람이 그린 그림을 식별하지 못한다. 이렇게 학습 데이터가 오염되기 시작하면 AI의 기능이 떨어질 수 있다”며 AI의 한계점을 지적하기도 했다.

“유럽연합의 녹서·백서 제도 참고해
향후 AI가 미칠 영향에 대해 구성원 전체가 토론해야”

현재 AI 업계는 챗GPT 등의 학습 능력이 점점 발전하는 이유를 파악하지 못하고 있다. 즉 AI가 왜 그렇게 잘 작동하게 됐는지를 설명하지 못한다는 것이다. 업계에서는 AI가 사람들이 이해하는 범위를 넘어서는 단계에 진입했다는 평가가 나온다.

따라서 박태웅 의장은 앞으로 AI가 사람들의 노동에 어떤 영향을 미치고, 삶은 어떻게 바뀌게 될지를 논의하는 장이 마련돼야 한다고 강조했다. 박태웅 의장은 “AI 연구는 사람의 지능을 대체하자는 시도다. 우리 삶의 모든 부분을 건드릴 수 있다”며 “그런데 인공지능을 잘 아는 몇몇 전문가나 리더가 우리 삶과 윤리를 결정하도록 두는 건 옳지 않은 일이다. 철학·인류학·인지심리학·법학·사회학 등 다방면의 공동 연구가 필요하다”고 했다.

그러면서 유럽연합의 녹서·백서 제도를 참고해 범사회적으로 산업계·노동계·학계·시민사회가 머리를 맞대는 토론도 필요하다고 주장했다. 녹서란 정책 결정에 앞서 사회 구성원들의 질문과 의견 등을 수렴하는 제도로, 이후 정부는 공론화를 통해 모인 답을 묶어 백서 형태의 보고서를 내놓는다.

박태웅 의장은 “한국의 국회 구성원을 보면 연령대가 50대 후반이고 80% 정도가 남성이다. SKY 대학과 법조인 출신도 상당하다. 이런 구성원들이 각계각층의 이해관계를 대변하기는 어렵다”며 “관련 정책을 만들기 전에 다양한 사람들이 목소리를 내는 토론이 선행돼야 할 것”이라고 전했다.