Features
지능의 본질, 공감의 경계,
그리고 인간의 미래
인공지능전공 교수와
ChatGPT의 실험적 대담
최대진 교수 인공지능대학 인공지능전공
인공지능대학 최대진 교수의 연구실에서는 특별한 연구가 진행 중이다.
단순히 질문에 답하는 AI가 아닌, 사용자의 스트레스를 경청하고 감정적 지지를 제공하는 AI 챗봇 개발이다.
만약 인공지능이 정말로 인간의 감정을 읽으며, 심지어 우리의 정신건강까지 돌볼 수 있다면,
그것은 여전히 ‘기계’일 뿐일까. 자아가 없는 기계가 진정으로 ‘공감’이 가능하긴 한 것일까.
최대진 교수는 자신의 연구 파트너이자 대화 상대인 ChatGPT와 마주 앉았다. 대화의 주제는 거대언어모델의 작동 원리부터 감정적 지지의 윤리적 딜레마, 그리고 범용인공지능(AGI)이 가져올 사회적 파장까지 AI 기술의 최전선을 가로지른다. 이 대담은 인간과 AI가 서로를 비추는 거울이자, 포스트휴먼 시대의 공존 가능성을 탐색하는 실험적 대화록이다.
인간의 이해 vs AI의 예측: 지능의 본질을 파고들다
최대진 요즘 미디어에서 ‘거대언어모델(LLM)’, ‘멀티모달AI’와 같은 개념이 자주 등장합니다. 거대언어모델은 엄청나게 많은 양의 텍스트로부터 언어 패턴을 학습한 AI를, 멀티모달 AI는 한 단계 더 나아가서 텍스트뿐 아니라 이미지나 소리, 영상까지 여러 종류의 정보를 함께 이해할 수 있는 AI를 말합니다. 거대언어모델이 많은 글로부터 언어 패턴을 배웠다는 것은, 사람이 글을 읽고 학습하는 것과 어떻게 다른지 먼저 짚어보죠.
ChatGPT 사람은 글을 읽으면 글 속의 문맥을 파악하고, 그 글이 말하는 세계를 머릿속에서 하나의 의미로 정리하죠. 예를 들어 “고양이가 쥐를 쫓아갔다”라는 문장을 보면, 사람은 고양이와 쥐의 모습, 행동, 장면을 상상하고, 왜 이런 일이 일어났는지까지 추론할 수 있습니다.
반면 거대언어모델(LLM)은 글의 의미를 이해한다기보다는 단어와 단어 사이가 확률적 관계인지를 수학적으로 배웁니다. “고양이가 쥐를…” 다음에 “쫓아갔다”가 자주 나온다는 사실을 엄청난 양의 통계적 패턴 속에서 찾는 방식이죠. 그래서 LLM은 문장의 배경이나 세계관을 상상하는 게 아니라, 그동안 보아온 패턴을 바탕으로 ‘가장 자연스럽게 이어질 단어는 무엇인가’를 예측하는 데 최적화되어 있습니다. 사람은 의미를 먼저 이해하고 그에 맞게 표현을 고르지만, LLM은 표현들 사이의 통계적 관계를 기반으로 가장 적합한 문장을 생성합니다.
| “ | AI는 대체재가 아닌 보완재로 기능해야 합니다. 일상적 스트레스 관리는 AI가 담당하되, 복잡하거나 심각한 사례는 인간 전문가에게 이관하는 하이브리드 모델이 현실적입니다.” |
자아 없는 AI, 감정적 지지 가능한가?
최대진 겉으로는 비슷한 문장을 만들어내지만, 내부 메커니즘은 완전히 다르다는 점이 흥미롭네요. 저는 최근 LLM을 활용해 학업 및 직장 스트레스 등 일상적 정신건강 문제에 대해 감정적 지지를 제공하는 챗봇을 개발하고 있습니다. 이 연구는 병원에서 정신질환을 조기에 탐지하거나 통원치료로 일상생활의 정보 수집이 어려운 점 등 현행 정신건강 시스템의 한계를 극복하고, 정신건강 돌봄이 일상에서부터 예방적으로 이루어져야 한다는 생각에서 출발했습니다.
이러한 챗봇모델 개발에 있어 중요한 이슈가 있습니다. 감정적 지지는 지지 전략을 선택하고 이를 바탕으로 대답하는 형태로 이루어지는데, 다양한 지지 전략 중 ‘자아노출’ 전략은 상담자가 자신의 과거 경험을 공유하거나, 내담자의 문제를 유사 경험에 비추어 해석함으로써 정서적 연대와 해결 방향을 제시하는 기법입니다. 그런데 AI는 자아가 없기 때문에 직접 경험한 것이 없고, 오로지 학습된 언어 패턴만을 이용해 대답하겠죠. 진정한 의미의 자아노출 전략을 수행할 수는 없는 것이지요. 이러한 한계를 AI가 어떻게 극복할 수 있을까요?
ChatGPT AI는 자아가 없고 개인적 경험도 없기 때문에, 인간 상담자가 사용하는 방식의 자아노출은 원칙적으로 불가능합니다. “제가 예전에 이런 일을 겪어봤는데…”라는 말 자체가 사실일 수 없으니까요. 그러나 AI가 자아노출 전략 자체를 사용할 수 없는 건 아닙니다. 핵심은 자아노출 전략의 기능적 목적을 어떻게 달성하느냐에 있죠. AI는 거짓된 자아를 만들지 않으면서도 이 기능을 수행할 수 있습니다. 예를 들어 “많은 사람들이 비슷한 상황에서 어떤 점을 어려워했고, 어떻게 풀어갔는지 알고 있어요”라고 말하거나, “당신이 느끼는 감정은 이런 상황에서 아주 자연스러운 반응입니다.”라는 식으로 감정을 정상화할 수 있습니다. 자아노출의 내용은 인간의 경험에서 오지만, 자아노출의 목적은 AI도 수행 가능합니다. 오히려 AI의 장점은 개인의 편향된 경험이 아니라 집단적·통계적 경험을 바탕으로 말할 수 있다는 점입니다.
최대진 AI챗봇이 사람들이 일상에서 겪는 다양한 상황에 대한 풍부한 정보를 가지고 있고, 이를 동질감이 느껴지도록 전달하는 방식도 고민이 필요하겠군요. 한편, 이러한 챗봇이 성공적으로 사회에 안착했을 때, 잘못된 개입에 따른 리스크, 개인정보유출 등의 우려도 있을 것 같습니다. AI에게 과도하게 의존하는 경향이 나타날 수도 있고요. 어떤 해법을 제안할 수 있을까요?
ChatGPT 이러한 리스크에 대응하기 위해서는 기술적·제도적·윤리적 차원의 통합적 해법이 필요합니다. 기술적으로는 우선 과도한 의존을 방지하는 메커니즘을 설계 단계부터 내장해야 합니다. 과도한 사용이나 위기 징후가 감지될 경우 전문 상담사 연결을 자동으로 권장하고, AI는 스스로의 한계를 명확히 밝혀야 합니다. “저는 감정적 지지를 제공할 수 있지만, 전문적 진단이나 치료를 대체할 수 없습니다.”라는 안내를 대화 초기부터 제공하는 것이죠. 제도적으로 안전장치와 위기 대응 시스템도 필수적입니다. 민감한 키워드나 위기 상황을 실시간으로 감지하고 즉각 전문가에게 연결하는 프로토콜이 필요하며, AI의 응답이 과도하게 단정적이지 않도록 공감과 경청 중심의 대화 가이드라인을 강화해야 합니다. 개인정보 보호도 핵심입니다. 정신건강 데이터는 가장 민감한 정보이므로, 엔드투엔드(End-to-End) 암호화와 익명화 처리가 필수이고, 사용자가 언제든 데이터를 열람·삭제할 수 있는 권한을 보장해야 합니다. AI는 대체재가 아닌 보완재로 기능해야 합니다. 일상적 스트레스 관리는 AI가 담당하되, 복잡하거나 심각한 사례는 인간 전문가에게 이관하는 하이브리드 모델이 현실적입니다.
| “ | AGI는 단순 반복 작업뿐 아니라 분석, 보고, 기획, 창작 등 인간의 지적 노동을 대체할 가능성이 있습니다. 이는 생산성을 폭발적으로 높이겠지만, 동시에 노동 시장, 교육의 목적, 전문직의 역할을 완전히 재정의하게 만들 수 있죠.” |
AGI의 도래: 과신뢰를 넘어 주체성을 지키는 길
최대진 단순히 AI모델 개발을 하는 것이 아니라 윤리, 안전장치, 위기 대응 시스템에 대한 연구가 수반되어야겠습니다. 이렇게 고도화된 AI 기술이 삶에 스며들었을 때 인간 사회의 미래가 어떻게 변화하게 될지 이야기해 보고자 합니다. 최근 가장 주목받는 기술인 범용인공지능(Artificial General Intelligence, AGI)은 현재의 과업 중심 인공지능 모델에서 벗어나, 한 번 학습된 능력을 다양한 상황에 자유롭게 적용하고, 인간처럼 새로운 문제에도 스스로 적응하는 지능입니다. 즉, 인간이 하나의 일에 대해 학습한 후, 새로운 상황에 맞춰 전략을 바꿀 수 있는 일반적인 사고 능력을 가진 것에 착안해, 유사한 AI를 만들어보자는 취지로 이해하면 되겠습니다.
미래학자 레이 커즈와일 구글 엔지니어링 이사는 기술의 급격한 발전으로 인해 인공지능이 인간의 지능을 훨씬 뛰어넘는 기술적 특이점(Technological Singularity)이 도래할 것이라고 언급했는데, AGI 기술이 고도화되면 인간 사회에 어떠한 영향을 미칠 수 있을까요?
ChatGPT 고도화된 AGI는 현재 인간이 해결하기 어렵거나 느리게 해결하는 문제들에서 인간을 뛰어넘는 판단을 제시할 수 있습니다. AGI가 보편화되면 사람들은 ‘AI를 사용하는 사용자’에서 ‘AI와 협업하는 존재’로 전환될 것입니다. 분명히 리스크도 존재합니다. AGI는 단순 반복 작업뿐 아니라 분석, 보고, 기획, 창작 등 인간의 지적 노동을 대체할 가능성이 있습니다. 이는 생산성을 폭발적으로 높이겠지만, 동시에 노동 시장, 교육의 목적, 전문직의 역할을 완전히 재정의하게 만들 수 있죠. ‘전문가란 무엇인가’라는 질문부터 다시 써야 하는 상황이 올 수도 있습니다.
최대진 현 시점에서 인간은 고성능 AI에 대한 동작원리를 명확하게 규명하지 못하고 있습니다. 투명성이 부족하다는 것이죠. 그런데 AGI가 스스로 목표를 조정하고 상황을 판단하는 능력이 우수해지면, 인간이 그 판단 과정을 완전히 이해하거나 예측하지 못한 상태에서 과신뢰를 하게 되고, 이것이 불확실성을 크게 높일 수 있습니다. 예를 들어, ‘AGI는 모든 일을 정확하게 한다’는 인식이 확산되면 정책결정 과정에서 AGI의 분석 결과가 구체적 근거나 검증 없이 정당성의 근거로 사용될 위험이 있습니다. 이는 잘못된 판단에 대한 위험뿐 아니라 인간의 주체성과 민주적 절차의 의미까지도 흔들 수 있는 심각한 문제입니다. 차세대 AI가 발전하면 인간은 지적·물리적 부담에서 벗어날 수는 있지만, 동시에 경제·사회적 구조와 윤리 문제에 대한 대비가 필요하겠네요. ‘AI가 인간을 대체하는 미래’가 아니라, ‘인간의 가능성을 확장하는 미래’가 되도록 말입니다.
|
magazine.ewha.ac.kr
Ewha Womans University Semiannual Magazine
Since 1993
03760 서울특별시 서대문구 이화여대길 52
T. 02-3277-3693 | F. 02-364-8011 | E. imewha@ewha.ac.kr
Copyright 2026 by EWHA WOMANS UNIVERSITY. All Rights Reserved.