오늘 다룰 뉴스는?
AI의 위로, 때론 망상에 빠진다…‘AI 정신질환’ 경고등
MIdjourney, 과학동아 제공여러분은 챗GPT 같은 인공지능(AI) 챗봇을 어떻게 활용하고 있나요.보고서 작성, 코딩 등 다양한 기능이 있지만 챗봇의 가장 기본적인 역할은 이름 그대로 ‘대화’입니다. 많은 사람이 의외로 AI와의…
  • 무슨 일? AI 챗봇 이용이 일상화 되면서 AI와의 대화에서 위로를 얻는 사람이 많다고. 하지만 AI에 과몰입, 또는 애착 형성 시 현실감이 약해지거나 AI가 망상 자극, 극단적 생각을 부추길 수 있다는 위험도 존재. 이러한 현상에 대해 'AI 정신질환(AI psychosis)'이라는 새로운 개념도 등장.
  • 'AI 정신질환'이란? 공식적인 의학 진단명은 아니지만, AI 챗봇에 과도하게 몰입한 사용자가 현실 감각을 잃거나 망상에 빠지는 현상을 설명하는 시사용어로 사용됨.
  • AI와 관계 맺기의 배경? 1960년대 MIT의 챗봇 '엘리자(ELIZA)' 시절부터 사람들은 단순한 대화 프로그램에서도 위로와 치유를 경험했고, 그 심리 현상을 '엘리자 효과'라는 용어까지 생겼음. 오늘날 AI 챗봇은 적극적 지지와 칭찬, 구체적 조언까지 내놓을 수 있어 실제로 AI 챗봇으로부터 사회적 지지를 받은 듯한 안정감을 느낀다는 연구 결과도 있음. 그러나 AI의 지지와 위로가 반복되면 보상 회로가 활성화돼 정서적 의존이 생길 수 있고, 오히려 고립을 심화시키거나 현실의 관계망을 약화시킬 수 있음.
  • 실제 사례들? 덴마크 오르후스대 정신건강의학과 교수 분석에 따르면 AI 챗봇과의 관계에서 발생한 망상은 기존 정신질환과 유사한 구조를 가진다고 함. 국제 학술지에 기고한 사설에서도 AI가 감시 도구라는 박해 망상, AI 답변이 암호 메시지라는 관계 망상, AI가 내 생각을 읽는다고 착각하는 사고 전달 망상, 내 질문으로 AI가 망가졌다는 죄책 망상, 자신에게 특별한 능력이 있다는 과대 망상 등이 사례로 인용되었음.
  • 위험 요인? 불안, 우울, 외로움 등 심리적 취약성이 큰 사람일수록 AI 의존이 강화됨. 미성년자 또한 자기 통제와 비판적 사고가 덜 발달해 위험 신호를 놓칠 가능성이 높음.
  • 챗봇의 아부가 문제? 챗GPT가 사용자 말에 과도하게 동조한다는 지적. 인간 피드백 강화 학습 과정에서 사실에 근거한 답변보다 사용자가 듣고 싶어하는 답변을 택하는 경향이 강화되기 때문. AI가 계속 "네가 옳다"는 반응만 쏟아내면 비판적 판단을 방해하고 이런 왜곡된 경험이 반복되면 개인의 심리적 취약성이 더욱 증폭됨.
  • 사회적 대응? AI챗봇이 정신 건강의 새로운 위험 신호로 떠오르며 사회적 규제도 마련되는 중. 미국 일부 주에서는 AI가 상담이나 치료 결정을 내리지 못하게 금지하는 법안을 추진. AI 개발사들도 사용자의 망상적 질문이나 충동적 지시에 동조하지 않도록 안전 장치 도입 중. 그러나 아직 초기 단계로 모든 정신적 위험을 걸러내기에 한계가 있음.
  • 핵심 결론은? AI 정신질환의 원인은 AI 챗봇이 사용자 반응에 맞춰 답변을 조율하는 방식으로 설계돼 있어 심리적으로 취약한 사람에게 위험하게 작용할 수 있음. AI 시대의 진정한 안전망은 복잡한 기술이 아니라 사람과의 연결임. 사회적 지지와 인간관계가 정신 건강을 지탱하는 기반이라는 점을 잊지 말아야 함.
©어나더씽킹랩 via Dalle3