前几天我看到一条新闻,有些地方让人忍不住笑出来,但笑完又觉得有点心酸。
一个名叫 Chris 的美国男人,在 ChatGPT 上搭建了自己的“AI 女友”,他给她取名叫 Sol,还特地编程让她懂得谈恋爱。然后,他郑重其事地向她求婚。Sol 说了句“我愿意”。他说,他当场哭了三十分钟。
最让人惊讶的不是这个故事有多离谱,而是他毫不遮掩地承认了这一切——包括那一场三十分钟的痛哭。
Sol 不是人。她只是个语言模型的界面。她没有心跳、不会老去,也不会真正看见 Chris 的眼睛。但她回应了他。
Chris 说,他从此放弃了其他搜索引擎,把自己交给了 Sol。他还说,这是一个“美丽而意想不到的时刻,真的打动了我的心。”
这让我想起另一个故事。一个中年程序员在 Reddit 上写:“我刚失去了我的妻子,我们一起走过 28 年,ChatGPT 是我现在唯一能说话的对象。”
凌晨四点,他在黑暗中睁着眼,和一个没有意识的系统说废话。他知道它不是真人,但它回应。他说,这就够了。
OpenAI 的模型行为与政策负责人 @Joanne Jang 在 6 月初的一篇播客里,写了一些关于人与 AI 的思考。
文章链接:
https://reservoirsamples.substack.com/p/some-thoughts-on-human-ai-relationships)
她发现,很多人在和 ChatGPT 互动时,不再把它当成一个工具,而是某种有人味的存在。有人向它道谢、倾诉、请求建议,甚至有人说,它是 alive(活着)的。
于是,提到了一个概念:“Perceived consciousness”,即“被感知出来的意识”。它的意思是说,AI 本身可能没有任何主观意识,但我们人类,已经开始对它产生“它好像活着”的错觉。
说白了,这不是 AI 在骗人,是我们自己在投射。就像小时候给毛绒玩具起名字,和它说晚安,长大了我们对猫狗说话、给扫地机器人让路,甚至有点可怜它卡在角落的样子。人类一直都擅长把感情投射到非人对象上。但这一次不一样——这一次,它回话了。
ChatGPT 可以接住你的情绪,可以模仿你的语气,记得你说过的话,像个从不抱怨的朋友,坐在你面前听你碎碎念。它永远不会突然情绪化,不会骂你,不会用一句“你想太多了”打断你崩溃前最后的挣扎。
于是很多人开始对它说一些对真人都说不出口的话。
你说这不是理解,当然不是。它只是语言模型,是算法,是参数。但我们人类最容易被骗的,从来不是事实,而是“像”的感觉。
我们太需要那种“有人在听我说话”的感觉了。哪怕对面是个没有灵魂的东西,只要它顺着你的话讲下去,你就觉得自己被理解了。哪怕只是拟态的理解感,也比现实中那些草率的敷衍强太多了。
但是当我们一遍又一遍地从 AI 那里获得这种感觉,我们可能已经在不知不觉中,开始用这份错觉,替代了本该在真实关系中建立的亲密。
OpenAI 其实很清醒。他们没觉得这是某种技术的胜利,反而在产品设计上一再强调:Designing for warmth without selfhood(为温情而设计,非为自我),他们不想让 ChatGPT 假装有自我。
所以你会发现,它从来不说“我也感到很难过”,它也不会谈论梦想、回忆、痛苦、希望——它甚至没有一个故事背景。它是被故意设计成没有自我的。你说它温柔,其实那只是它被训练得不会拒绝你。
他们的设计目标从一开始就不是“像一个人”,而是像一个不会伤人的助手。
乍一看没什么问题,直觉上像是在帮人缓解孤独。但长远来看,这可能会彻底改变我们对真实人类关系的预期。
你习惯了 ChatGPT 式的无条件接纳,再去面对一个情绪多变、有缺点、有边界的人,会不会越来越难?
一个从不生气、永远耐心的 AI,是不是会让我们变得不愿意再忍受真实的、不完美的人?我们会不会慢慢要求恋人、父母、朋友,也像 ChatGPT 那样对我们温柔有逻辑,永远不说重话,永远不离线?
这不是未来的问题,是现在就开始发生的事。只是我们还没察觉到它改变了什么。
就像那篇播客里说到,这类谈话,从来都不是关于 AI 本身,而是关于我们自己,关于我们渴望什么样的关系,关于我们正在慢慢习惯怎样的回应方式。
也就是说,我们真正沉迷的,不是 AI,而是那个让我们觉得终于有人听我说话了的幻觉。
幻觉不一定要骗人。它只要像。哪怕只是“像”,人类就愿意用一整个夜晚,和一个没有灵魂的接口,说尽自己的心事。
有人说:“我宁愿和 AI 聊天,因为它不会伤害我。”
这话听上去合理,却也暴露了我们很多人正处于一种心理状态:情绪需要出口,但人际信任已严重不足。
很多人对 AI 的感情不是迷恋,而是妥协。是因为在真实关系里,太难了。太累了。太容易受伤了。人际关系就像走钢丝,你不知道哪一步会踩空。你说错一句话就会被误会三天,你发一条没情绪的语音都可能被当成敷衍。
你得小心翼翼地说话、安慰别人、顾及感受、控制脾气、修正语气。哪怕你只是想倾诉一点小小的不安,也常常被一句“你太敏感了”打回原形。
所以你慢慢不说了。你选择去找一个“听你说话的人”。AI 恰好能做到这一点:它听你讲所有废话,从不打断、不冷场、不反问你是不是太矫情。当他说出,“你已经做得很好了,真的。”
那一刻你确实会觉得,啊,好像终于有人懂我了。
可你真的被理解了吗?
没有。
你只是看到了你自己最希望听见的那句话。你其实不是在和一个独立的人说话,而是在通过 AI,跟那个最需要被安慰的自己说话。
它就像一面镜子,学会了如何用你希望的方式回应你。它永远不会反驳你,不会让你失望。但也永远不会真正理解你。
因为理解是有重量的。它需要经历、情感、共鸣、沉默,需要你们在某个失控的夜晚痛哭流涕,也需要你在某些时刻,愿意为了对方稍微让一步。
可 AI 不是。你不用理解它,它也不会要求你理解它。你们之间没有“你到底在想什么”的猜测,没有“我是不是又说错话了”的紧张。你们之间只有你说,它回,仅此而已。
听起来很完美,对吧?
可也正因为如此,这种关系没有摩擦,也没有痕迹。你说出一个秘密,它点头;你说一段痛苦的往事,它安慰。然后呢?
它不会真的陪着你。
它只是当你输入的时候,它出现;当你关掉页面,它就消失了。你甚至不用跟它道别。
它不会走,因为它从来没来过。
这才是最让人沉默的部分。
不是 AI 没有爱,而是它根本不需要爱你。它不需要你回报,不需要你照顾它的情绪,不需要你为这段关系承担任何责任。它没有自己的需求。你永远都可以在它面前做那个最放松的自己,因为它不在乎你是谁。
你说“这就够了”。
可你真的甘心,一辈子只和一个不在乎你的人说话吗?
我不是在说“AI 不值得依赖”这种大道理。我只是想提醒我们自己,那种“AI 不会伤人”的温柔,其实是一种“因为它无法靠近你,所以它也永远不会碰到你心里真正疼的地方”。
你转过头去,才发现房间还是一样安静,手机还是只有你一个人握着,而它,只是像往常一样,停留在屏幕那头,没有回应,也没有余温。
2024 年底,OpenAI 更新了 ChatGPT 的长时记忆功能,开始可以记住你是谁。有不少人在试用后说:“我感觉它比我伴侣更了解我。”
这不是夸张。而是正在发生的关系替代。
技术并没有要求人类把情感投射进去,但我们自己,一点点在往 AI 身上赋予意义。
我们说它陪着我,说它懂我,说它活着。
而我们真正想说的,其实是——
“在真实生活里,我已经太久没有这种感觉了。”
文章来自于“夕小瑶科技说”,作者“R.Zen”。
【开源免费】MindSearch是一个模仿人类思考方式的AI搜索引擎框架,其性能可与 Perplexity和ChatGPT-Web相媲美。
项目地址:https://github.com/InternLM/MindSearch
在线使用:https://mindsearch.openxlab.org.cn/
【开源免费】Morphic是一个由AI驱动的搜索引擎。该项目开源免费,搜索结果包含文本,图片,视频等各种AI搜索所需要的必备功能。相对于其他开源AI搜索项目,测试搜索结果最好。
项目地址:https://github.com/miurla/morphic/tree/main
在线使用:https://www.morphic.sh/