-
[장은수의 인문학 산책] (54) 기술적 삶에 대하여
입력 : 2026.02.11 14:52:34
-
기술의 정의는 ‘인간이 할 수 없는’ 또는 ‘갖은 힘을 써야 간신히 해내는’이다. 가령, 가위는 인간이 매끈하게 자를 수 없는 천이나 가죽을 깔끔하게 잘라 준다. 컴퓨터는 인간이 시간을 들여야 할 수 있는 복잡한 계산을 쉽게 해낼 수 있게 해 준다. 이처럼 대다수 기술은 인간이 아예 못하는 것 또는 소수만 할 줄 알던 것을 다수가 할 수 있게 돕는다. 일반적으로 기술이 평등을 촉진한다고 우리가 믿는 이유다.
그러나 인공지능은 전문가와 아마추어를 차별한다. 소수 전문가는 이 기술을 이용해 생산성을 높일 수 있지만, 대다수 비전문가는 이를 잘 활용하기 어렵다. 특히, 챗GPT나 제미나이 같은 대규모 언어 모델(LLM)을 이용한 인공지능은 더 그렇다. 사람들은 흔히 기술이 발달하면, 이 모델이 생성하는 답변에서 오류가 거의 사라지리라 믿는다. 사실이 아니다. 애초에 이 모델은 사실이나 진실을 목표로 하지 않는다. 원리상, 주어진 질문에 확률적으로 ‘그럴듯한’ 문장을 쏟아낼 뿐이다. ‘사실(진실)’과 ‘그럴듯함’의 차이, 이것이 환각이고, 언어 모델은 이를 극복할 수 없다.
그 때문에 인공지능엔 ‘메논의 역설’이 작용한다. 플라톤의 대화편 <메논>(아카넷 펴냄)에서 유래한 말이다. 메논의 역설은 사람들이 어떤 것을 새롭게 알려고 할 때 나타난다. 탐구자가 그 사실을 이미 알고 있을 때는 단지 아는걸 확인할 뿐이므로, 질문을 던져 새로운 걸 탐구할 필요가 없다. 그 사실을 아예 모를 때도 마찬가지다. 그는 자신이 무엇을 알지 못하는지조차 모르므로, 질문해서 새로운 것을 탐구할 수 없다. 따라서 사람은 자기가 아는 것도, 모르는 것도 탐구해 새롭게 알려고 하지 않는다.
우리가 인공지능을 이용할 때 이 역설이 작동한다. 전문가(이미 잘 아는 사람)는 인공지능을 쓸 이유가 없다. 이미 아는 건 인공지능에 물을 필요가 없고, 혹여 묻더라도 필연적 오류를 수정해 고쳐 쓰는 건 귀찮고 힘들다. 따라서 엄밀한 답을 요하는 핵심적 문제를 탐구할 때 그는 점차 인공지능에 묻지 않고 스스로 작업하는 쪽으로 나아간다. 회계 같은 엄밀한 분야는 더욱 그렇다. 올해 초 영국의 회계 전문 소프트웨어 회사 덱스트(Dext)에서 회계사 및 경리 담당자 500명을 대상으로 조사해 발표한 자료에 따르면, 인공지능의 세무 및 금융 조언에 의존하다가 환각 때문에 손실을 본 기업이 절반가량이다. 부가세 계산, 업무비용 처리, 급여 계산 등에서 치명적 오류를 일으켰다. 오히려 인공지능은 전문가의 시간을 별로 절약하지 못했다. 회계사의 93%는 인공지능의 오류를 바로잡는 데 꽤 시간을 쓰고, 경리 담당자의 40%는 잘못된 데이터를 손보는 데 매주 4~10시간 정도 허비했다.
인공지능의 환각 탓에 손해 본 사람들 대부분은 비전문가다. 아마추어(아직 잘 모르는 사람)는 인공지능의 답변 중 무엇이 옳고 무엇이 틀렸는지를 좀처럼 구별하지 못한다. 만약 그가 그 답이 옳다고 믿고 쓴다면, 갈수록 오류가 쌓이면서 그는 점차 수준 낮은 아마추어로 전락한다. 반대로, 그가 그 답을 의심한다면, 그는 사실과 거짓을 구별하는 데 아주 긴 시간을 보내야 한다. 인간 주의력엔 한계가 있으므로, 의심하는 아마추어는 인공지능을 이용하는 게 검증된 지식을 이용하는 것보다 불편해진다. 따라서 아마추어는 인공지능을 점차 사용하지 않게 된다.
이처럼 인공지능을 사실(진실)의 도구로 이용하는 건 원리상 불가능하다. 그러나 아마추어와 달리, 전문가는 인공지능을 생산성 도구로 쓸 수 있다. 사실과 오류를 빠르게 분별할 수 있기에, 그는 인공지능을 생성한 ‘사실이면서 그럴듯한’ 결과물을 판별해 더 쉽게, 더 많은 작업을 해낼 수 있다. 이미 아는 건 인공지능에 빠르게 정리를 맡기고, 미지의 영역을 탐구하는 데 관심을 돌릴 수 있는 것이다. 번역의 경우, 이미 이런 일이 흔해지고 있다. 문학서나 인문서의 번역은 어렵지만, 자기계발서나 실용서 등은 인공지능에 번역을 맡긴 후 전문가와 편집자가 감수하고 세련되게 다듬어 책을 내는 예가 늘고 있다.
비전문가는 이게 안 된다. 인공지능에 의존하면, 작업 결과물이 엉망이 되고, 그 오류를 손대려 하면 스스로 작업하는 것보다 더 많은 시간이 든다. 한마디로, 인공지능은 아마추어나 신입사원 같은 미숙련자에게 극히 불리하다. 게다가 처음부터 인공지능에 의존하면, 자기 안에 사실을 축적하고 일의 기본을 체화하지 못해서 영영 아마추어로 남는다. 한 인터뷰에서 기술 철학자인 이상욱 한양대 교수는 이야기했다. “예술 분야 전문가가 AI를 쓰면, 1년에 10개 만들던 걸 100개 만들 수도 있다. 입문자가 처음부터 AI에 의존하면, 그 분야의 기본기를 쌓고 전문성을 축적할 기회 자체를 잃는다.”
업무에 인공지능을 이용하는 기업들에서 이미 이런 현상이 나타나고 있다. 2025년 말 《하버드 비즈니스 리뷰》에 실린 ‘AI는 일터에서 우리가 배우는 걸 어떻게 바꾸는가?’라는 글에서 린다 그래턴 런던비즈니스스쿨 교수는 말했다. “AI는 학습 가속화와 생산성 향상을 약속한다. 그러나 산출량을 늘리고 소음을 증가시킬 뿐, 인간 성장과 관련 있는 성숙성, 깊이 있는 사고, 공감 능력, 주체성을 키우는 핵심 경험을 빼앗는다.”
직원들이 인공지능을 이용해 쉽게 문서를 생산할수록 조직은 기껏해야 ‘그럴듯하나 통찰력 없는’ 문서 더미에 둘러싸인다. 인공지능은 ‘확률적 앵무새’에 가깝다. 원리상 모든 답이 중간값을 향해 수렴된다. 실제로 인공지능을 사용해 학생들이 낸 과제물들은 거의 비슷비슷하고 아무 개성도 없다. 학자들도 다르지 않다. 학계에서 인공지능을 이용한 연구는 데이터가 많은 쪽으로 쏠릴 뿐, 독창적 연구는 거의 찾을 수 없다. 데이터가 없는 곳에선 인공지능도 존재하지 않는 까닭이다. 회사도 마찬가지다.
기업의 미래에 필요한 일의 창조적인 정의, 즉 새로운 제품이나 서비스나 업무의 개발은 인공지능이 쏟아내는 평균값 주변엔 거의 존재하지 않는다. 그래턴의 말처럼, “우리는 더 많이 생성하지만, 더 적게 생각한다.” 전문가란 데이터를 능숙하게 다루는 사람일 뿐 아니라 데이터가 없을 때도 문제를 해결할 줄 아는 사람이다. 이런 인간적인 능력, 즉 순간적 기지, 직관, 분별, 도덕적 추론, 공감 능력은 현장 경험 없이 생겨나지 않는다. 고객과 대면해서 처치 곤란한 업무를 수없이 처리하면서 자기 안에 숱한 사례를 축적하고, 동료와 암묵지를 주고받으며 스스로 조사하고 생각해 문서를 작성할 수 있어야 전문가가 된다.
직원들이 현재의 인공지능에 중독될수록, 전문가가 될 확률은 줄어든다. 문제가 생기면 챗봇에 물어 답을 얻는 수준에 붙잡히게 된다. 그래턴 교수는 인공지능 시대일 수록 회사는 직원들이 현장에 부닥쳐 주체적으로 문제를 해결할 충분한 기회를 제공해야 한다고 말한다. 그렇지 않으면 시간이 흘러 현장에서 단련된 전문가들이 은퇴하면 조직은 창조성을 잃고 점차 약해진다. 따라서 건강한 조직일수록, 인공지능이 쏟아내는 비슷비슷한 답이 아니라 생각하는 인간이 지혜와 통찰을 담아낸 독창적 해결책을 장려한다. 인공지능 시대에 회사의 미래는 미숙한 아마추어 직원을 숙련된 전문가로 잘 성장시키는 데 달려있다.
장은수 문학평론가
읽기 중독자. 출판평론가. 민음사에서 오랫동안 책을 만들고, 대표이사를 역임했다. 현재 편집문화실험실 대표로 주로 읽기와 쓰기, 출판과 미디어에 대한 생각의 도구들을 개발하고 있다.