“AI 기술에 실존적인 위험이 뒤따를 수 있지만, 이는 인간이 개발한 가장 위대한 기술이 될 수도 있다. 우리는 매우 조심스러워져야 한다. 사람들은 우리가 이것(AI 기술)을 조금 무서워하고 있다는 것에 기뻐해야 한다.”
‘챗GPT’의 개발사 오픈AI의 최고경영자(CEO) 샘 올트먼이 AI 기술의 파급력을 언급하며 그 위험성에 대해 내놓은 우려의 목소리다. 실제 GPT-4를 활용하면 코딩에 대한 기본적인 지식이 없는 사용자들도 직접 게임을 제작할 수 있을 정도다. 그림이 포함된 물리나 수학 문제를 그대로 찍어 보여주기만 하면 문제를 잘 풀 수 있고, 논문에 포함된 이미지 파일도 요약해줄 수 있다. 일단 이미지를 파악시킨 뒤 후속 질문을 통해 계산이나 추론 등 다양한 지적 사무를 해낼 수도 있다.
그러나 AI 전문가들은 이 같은 생성형 AI는 해당 분야 전문가를 지원하는 용도로만 사용해야 한다고 경고한다. 이미 생성형 AI가 충격적인 콘텐츠와 잘못된 정보를 생산하기도 하는 것으로 나타났으며, 지식재산권(IP) 침해와 개인정보 문제도 제기되고 있다. 또 작업의 독창성을 침해하고 인간의 역할을 빼앗는다는 우려도 있다.
AI 스타트업 업스테이지 박은정 최고과학책임자(CSO)는 “GPT-4는 사람들이 많이 물어보지 않거나 온라인에 정보가 없는 ‘롱테일 질문’, 지식을 단순히 불러올 뿐 아니라 특정 연산을 통해 정보를 소화해야 하는 ‘추론형 질문’은 잘 답할 수 없다”라고 말했다.
박 CSO는 “GPT-4가 범용 인공지능(AGI) 수준에 도달하지 못한 것은 맞지만 ‘머나먼 미래’였던 예전보다 훨씬 가까워졌다”라면서 “검색 대상인 콘텐츠가 대부분 기계에 의해 만들어지며 인간이 만든 것과 구분하기 어려울 정도가 되면서 양질의 콘텐츠를 가려내는 게 또 다른 도전과제가 될 것”이라고 덧붙였다.
이러한 가운데 최근 오픈AI가 챗GPT에 적용된 언어모델 GPT-4의 모델 크기·학습 방법 등을 공개하지 않기로 해 갑론을박이 일고 있다. 회사 측은 사회적 영향을 고려한 결정이라고 밝혔지만, 업계에서는 수익성을 확보하는 한편 법적 책임을 피하기 위한 것이라는 지적도 나온다.
정승익 서울사이버대 전자과 겸임교수는 “챗GPT는 작업 시간과 인건비를 절감하는 효과가 있다”라면서도 “완전히 챗GPT에만 의존해서는 안 되고, 이를 정보를 얻거나 업무를 처리하는 채널 가운데 하나로 보고 인간의 의견도 반영할 필요가 있다”라고 강조했다.
배순민 AI2XL 연구소 소장은 “챗GPT를 활용한 가상도우미 서비스를 개발하면 건강관리, 생활상담 등 노인들의 전반적인 삶의 질을 향상시킬 수 있다”라며 “교육 분야 역시 챗GPT를 활용하면 저소득층 학생들이 손쉽게 접근하는 등 학생들의 자기주도 학습에 도움이 될 수 있다”라고 강조했다.
윤영진 네이버클라우드 글로벌 AI 비즈니스 리더는 “산업 측면에서 보면 가까운 미래에 AI를 개발하는 회사의 부류가 나뉠 것 같다. 오픈AI나 구글, 네이버·카카오 등 빅테크는 파운데이션, 백본(기간) 모델을 개발하는 데 집중할 것”이라며 “다른 스타트업은 그 생태계 위에서 수많은 애플리케이션을 개발할 것인데, 어떤 것들을 만드는지에 따라 미래 생활이 달라질 수 있다”라고 기대했다.
김병수 기자