인간이 AI에 정신적으로 기대는 시대가 오고 있다고 본다.

챗GPT 같은 AI 상담이 늘어나는 걸 보면 다들 "편해서 써요"라고 포장하지만, 실제로는 감정적으로 안전한 공간 하나 마련해두고 싶은 마음이 더 크다고 생각한다. 막상 진짜 사람한테 말하면 돌아올 피곤한 반응, 서운함, 빈정거리는거 신경 쓰기 싫어서다.

AI 상담의 첫 번째 매력은 뭐니 뭐니 해도 '즉시 위로'. 잘 사귀던 연인과 싸우고 돌아오는 길, 상사가 던진 모욕적인 한마디, 미래에 대한 불안감이 덮치는 새벽시간대에 친구한테 연락하면 민폐이고, 전문 상담사는 이미 퇴근. 그 틈을 AI가 파고든다. 1초면 대화창 열리고 흔들리지 않는 톤으로 "지금 많이 힘들구나" 하고 받아주는 존재다 보니 실제로 중독적인 위로가 된다.

두 번째는 '감정 에너지 0'의 편안함. 사람에게 고민을 털어놓으면 상대 기분도 챙겨야 하니 별게 다 신경 쓰이고, 내 말이 무거웠나 가벼웠나 따질 필요도 있다. AI는 그런 거 없다. 지치지도 않고, 감정 소모도 없고, 섭섭해하지도 않는다. 사람은 여기서 엄청 솔직해지고 현실에서는 절대 꺼내지 못할 마음까지 쏟아넣는다.

사실 이런게 좋은점이 있다. AI한테 고민을 설명하는 과정 자체가 감정을 언어로 정리하는 작업이 된다. 인간은 '말로 정리되는 순간' 감정의 세기가 뚝 떨어지는 구조를 갖고 있다. 감정이 문장이 되면 정리가 되고 폭발로 가던 감정도 한 박자 줄어든다. 게다가 AI는 항상 중립적이라 이별 고민, 진로 선택, 인간관계 갈등처럼 감정적인 문제를 구조적으로 바라보게 도와준다.

하지만 문제는 부작용이다.

첫 번째는 '관계 대체'. AI는 절대 상처 주지 않고, 절대 나를 불편하게 하지 않는다. 문제는 인간관계에서 꼭 필요한 그 작은 마찰, 조율, 갈등 해소 같은 능력이 퇴화할 수 있다는 것이다. 실제 사람과 부딪혀야 할 순간이 오면 버거워지고, 결국 인간관계는 더 얇아지고, 외로움은 더 깊어진다. 여기에 "AI는 늘 나를 이해한다"는 착각이 덧씌워지면 감정적 의존이 아주 자연스럽게 진행된다.

두 번째는 '현실 회피'. AI는 친절하고 이해심 많고 말 한번 잘 들어준다. 문제는 그게 너무 "따뜻한 비현실"이라는 점이다. 현실 문제는 결국 현실에서 움직여야 해결되는데, AI에게만 털어놓고 위로만 받다 보면 행동이 멈춘다. 아무것도 달라지지 않았는데 마음만 살짝 좋아지는 착각에 빠지는 것이 나중에 더 큰 절망으로 돌아온다.

세 번째는 '복잡성의 오해'. AI는 텍스트 기반이라 인간의 표정, 미묘한 말투, 뉘앙스, 관계 히스토리를 정확히 읽어낼 수 없다. 그래서 조언이 부분적으로는 맞아 보여도 전체적으로는 살짝 비틀린 경우들이 존재한다. 이게 반복되면 현실 판단이 어긋날 위험도 있다.

결국 AI 상담은 가성비 좋은 멘탈 응급처치 도구로 보면 된다고 생각한다.

하지만 이것만 붙잡고 살면 인간관계는 약해지고, 현실 행동은 멈추고, 외로움은 더 악화되는 역효과도 생긴다. 결국 균형 잡힌 결론은 하나다. AI는 어디까지나 '도구'일 뿐이고, 삶은 결국 사람과 엮이면서 만들어지는 거라는 것이다.