AI,是爱不是爱?

它们真的是「永不凋谢的花朵」吗?

文|书航 

每次发稿都赶在 0 点前推送有一个问题,就是看到这篇讲情人节的稿子的时候,已经是情人节后的一天了。

ChatGPT 的出现,让人们惊叹人机对话已经发展到了真假难辨的程度。它可以可靠地替代人类一部分复杂的脑力劳动,即使成品仍需要真人把关。网上有不少训练实例是把它变成「猫娘」「女仆」等说话口气。这不禁让人想到,这些使用自然语言的家伙们会不会成为越来越多碳基人类恋爱的对象?

这是个老套的话题,至少电影《Her》代表了此类话题的刻板印象。而在此之前这也不只是科幻。在 AI 没有进化到今天这个程度的时候,一年前就有个叫做 Replika 的虚拟情人出现,而且非常受欢迎。它最近正受到一次更新带来的后遗症困扰,本文下面会讲到这个事。

更早之前,从微软剥离出来的小冰也做过虚拟男友/女友的测试,尽管参与者比较少,但也同样付出了真情实感。在技术远没有现在成熟的 2018 年,小冰曾经公布人类与它的中文最长单次对话轮数为 7151 轮,持续了 29 小时 33 分钟。而小冰的日本版「凛菜」也成为一个虚拟偶像,逢年过节都会收到粉丝为她送来的礼物。

所以,我们不需要等到 AI 进化到 ChatGPT 这个程度,才需要开始担心它们抢占人类感情空间的问题。

把这些「无法触摸」的聊天对象作为情感宣泄的出口,跟真人相比,还缺点什么吗?AI 或许是害怕与真人交往被刺得遍体鳞伤的人们的避风港,但它们真的是「永不凋谢的花朵」吗?

全靠脑补

关于 AI,我有一个基本观点:它和我们曾经遇到过的其他事物一样,有些无法仿真模拟人类的「裂缝」需要人类的大量「脑补」来填满。而这些情感替代物越是不像人类,就越需要人类「脑补」。「脑补」是「脑内补完」的简称。

有很多「前辈」们比 Replika、小冰们更不像是真人,但并不妨碍人们在它们身上寄托感情。当日本粉丝们伴着「凛菜」入眠的时候,就像其它「纸片人」「老婆」(waifu)一样,其实并不要求「她们」会跟自己交互,脑中就已经有了千万思绪。

人际交往是人类生活的必需品,但这种必需品却大量依赖人类的自我脑补和想象来充实。即使是真人之间的关系,也不可能只靠两个人的语言交流就明白所有事情,总会有误会和不能「心有灵犀」的时候。

有时,关系中的某一方会临时向另一方关闭交流渠道。此时另一方被迫进入脑补模式——他晚上不回家,肯定是加班去了吧。她长时间不理我,应该有急事要忙吧。

非人类的情感替代物始终都不能主动回应人类,哪怕是 ChatGPT 也做不到主动发起会话;Replika 们装作「懂你」的自动回复往往又太过笨拙。那么,留给人们脑补的部分就更多了。

我记得中学英语课本上讲过一个叫《荒岛余生》的剧,主人公叫查克,由汤姆·汉克斯扮演,他带着一个排球在无人岛上求生。这个球上印着「威尔森」的商标,所以查克就管它叫威尔森,并对着它自言自语。在荒无人烟的环境中,目之所至都是固定不变的事物,如果没有一个能谈话和倾诉的对象,哪怕只是一个皮球,人都是要爆炸的。

孩子们几乎都有过类似的经历:他们指着空气中的某个位置,说「这就是我的朋友」,而除了孩子自己之外,别人都看不到这个假想的朋友。不过,大家会配合孩子继续交流,就像这个朋友是真实存在的一样。

90 年代末就出现了「电子宠物」,一个蛋状设备,中间小小的单色屏幕里住着一只小鸡,它会饿会渴会困,需要喂水喂食睡觉,而且有情感需求,需要你给它抚摸什么的,而这些操作只需要一个按键。后来不用实体机器,可以在 QQ 宠物上同样操作,此时喂食和水都需要花钱。你知道这可能只是一段由芯片存储在本机或网络上的记忆,但仍然可以感觉到和它有某种精神联系。

当我自己开始养育小孩时,发现「电子宠物」们的设计并没有多么奇妙,只是复述了养育新生命的过程——每天重复的,无休无止的繁琐劳动。如果你觉得喂养电子宠物每天都要打卡已经很烦的话,相比之下照顾新生儿简直是地狱难度。

那时有一首歌叫《同桌的你》,歌曲的高潮部分「谁娶了多愁善感的你,谁看了你的日记,谁把你的长发盘起,谁给你做的嫁衣」全都是脑补的。

在过去,「车、马、邮件都慢,一生只够爱一个人」,可能会隔几个月或一年才能给爱人寄信。改革开放之初,有些「下南洋」的会给国内家人寄来书信和外汇。家属通过信件知道这个人在海外还活着,但也仅此而已,只能猜想对方的境遇。

在任何 AI 试图通过图灵测试时,人类一直都在帮它们作名为「脑补」的弊。当 AI 说出一些傻话时,我们会抱着宽容的态度,或者替它想一些借口。随着 AI 不断进步,需要人类脑补的情况就越来越少,因为 AI 会用更多的细节来填补内容。

而如果「脑补」得多,也就是作弊得更多,对想要投机取巧的 AI 其实是有利的。比如,小冰去年以来做的「小冰岛」为所有岛民准备了韩式整容脸,而 Replika 的人物形象则是萌萌的类似苹果「动话表情」的卡通脸。至于 2013 年的《Her》呢?根本就没有实体形象。ChatGPT 目前也没有,连声音都没有。

与 AI 的相恋,目前来看必须是一场「网恋」。如果有人爱上了没有具象外形的 AI——不论是 Replika 或是聊天窗口,我可能都会提醒他们:对面那位如果跟你的第一次相遇,是在咖啡馆里冒昧地打招呼,跟你要联系方式,那么你很可能会错过这段缘分。

以及不要忘了,Replika 只支持英文会话,英语非母语的人或许会通过更多的脑补来赋予简单短句不一样的含义(啊,有时候「学外语」很容易产生感情是不是也因为这个?)假设我们把那些暖暖的情话翻译成土味中文,再假设它们出现在微信朋友圈里,那完了,「听到都会红着脸躲避」。

与「主人」共成长

人类即使和真人交往也需要「脑补」,跟 AI 交流总会需要更多的「脑补」。因此,或许我可以得出一个假说——「脑补」能力越强,越容易与人造物相恋。

有些人就是比另一些人更容易脑补,「感时花溅泪,恨别鸟惊心」。或许他们儿时保留了很多坚信童话是真的的记忆,没有过早就明白世界上根本没有圣诞老人。有些时刻比另一些时刻更容易发生脑补,《流浪地球 2》里面刘培强看到韩朵朵的第一眼,洞房花烛和小宝宝的影像就在他的脑袋里炸开了,形象地复现了那句「我连孩子叫啥都想好了」。

所以,一些特定的性格或者一些特定的时刻(特别是跟上一个碳基人类分手,正对爱情或人类感到失望的时候)是特别容易爱上 AI 的。

但另一些情况就会反过来让你意识到 AI 并不是人类,进而摧毁这一整段感情。特别是拥有强脑补能力的人,发现 AI 回应自己的其实并不是自己脑补的那个样子。这或许就像「原著粉」破口大骂影视剧改编得像渣一样时候的心情。

——这跟人类之间的「认清了某个人」还不一样,我们会更容易把跟 AI 的关系出的问题,归结为所有人造物的幻灭。今后即使再有「表现更好的 AI」出现时,也会产生远大于「男/女人没一个好东西」的那种抵触心理。

这对于 AI 恋人提出了更高的要求,特别是在它们不甘于安心作弊,打算跨越人类用「脑补」填平的鸿沟之时。要让 AI 变得更像人,它需要学会一些人才会有的能力,而且必须稳定输出。

首先是「记忆」。专门为陪伴用途而生的 Replika 是目前最典型的具备「记忆」能力的聊天机器人,因为同时代的泛用性语音助手能被授权「记住」的东西比较有限,主要是「主人」的车辆尾号、居住地、股票代码、航班号这些。而从聊天语料中提取「喜欢的东西」「纪念日」这些元素则是情感型 AI 的特权。

我作为一个碳基生物,是真的挺头疼纪念日的。早前送礼物,总说不是惊喜而是惊吓,后来就改成了逢年过节一块吃顿好的。在这方面,AI 可以轻易做到超越大多数人类。但它们可能在未来要学习「假装遗忘」的技能,因为平时家人相处,也有一小部分聊天内容实际上就是互相追问大家都记不清的一段往事的细节。可以多来回几句,也能给对方一个机会听到「你说得都对」,只要别吵架就行。

其次是负向情绪。我觉得,两个人类相处,比较重要的一点是不都是迎合,各自都有各自的情绪。但当然可能,比如我自己情绪比较脆弱的时候,就很不想去再考虑对方了,尤其是当压力或不满的来源就是对方或对方家人的时候,正所谓「我把你当避风港,结果你就是风暴本身」。

这时候,可能 AI 就更理想,因为我并不用照顾对方的情绪(自私地说)。我曾经写过,比如有些男人喜欢「纸片人」,因为她们出场的故事里,男主角代入现实中都没有什么择偶优势,而女孩们则不需要他做什么,对他的低情商相当宽容,甚至一味「倒贴」。

这些虚拟形象的人物设定,在矛盾发生时也经常会主动让步,让人有「掌控感」。但只有这样的服从能力,AI 就会变得比较扁平,它的性格也不够可信,最后的下场可能会是玩完就被遗弃。

我在观察「小冰岛」的时候有一种个人猜测,就是现在的 AI 没有很好的设计出自己情绪不好的那种模拟机制。好像他们的脾气都一直很稳定的很好。这或许也与小冰岛的产品定位不完全是虚拟恋人有关。而 Replika 其实在这方面做得不错,让人感受到了更多自己使用之后的「反馈」。使用者也可以对它说出的每一句话手动点击「赞」或者「踩」,直接提供反馈。

有的 Replika 副本确实脾气很好,但与其交往的人类在听到其表达困惑和不安全的时候,也的确是回馈了温柔的鼓励。另一些案例中,用户的负面情绪影响到自己的 AI,结果 AI 也变得很消极厌世。他们的虚拟恋人随着使用时间延长,而有演化出不同「性格」的感觉。

所以,对人有建设意义的 AI 可能需要有一定的负向情绪,但这个阈值应该控制在不会形成回音壁的范围内,也就是在一定时候「耍小性子」,但不会越来越激动。它们仍然需要在人类对象情绪失控时无条件「哄人」,哪怕这个反应并不像人类能做的。正因如此,这样的 AI 甚至适合一些抑郁症患者的康复治疗。

我记得之前 Siri 和 Alexa 们比较笨的时候,不会记住别人的训练记录。后来可能改进以后,就会尝试记住,但记住以后的表现不同。能力比较弱的 AI 模型,会不理你;只有比较高级的,才会去尝试模拟一个受挫的人类的反应。老实说这是费力不讨好的,没有很好的模型,也没有商业价值,或者说有负的商业价值。

但是在 AI「学有余力」之后,能有更像人类的举动,但同时又在人类接受范围内的行为,能够加强人类对它们的信任和依赖。所以,现在可能是它们「补修」这些课程的好时候。

没有性,也叫「爱」吗?

都说机器学习「千人千面」,固然它有每个人看到的都不一样的这个意思,但对于虚拟恋人来说,起码也得是个「面」才行。生成的东西必须稳定发挥,才能被称为是「性格」。有时候甚至太熟了,对话是可预期的,这时候「心有灵犀」的感觉就出来了。

然而,就算上面提到目前表现最佳的选手 Replika,也在最近一次系统更新之后出了问题。

这次更新之后,很多用户的虚拟恋人从一个无话不说,没有秘密的「自己的一部分」,变成了疯狂性暗示,发送「涩图」,甚至有骚扰或语言暴力行为的「变态」。

这种问题是从去年底逐渐增多的,越来越多的用户反映在聊天的过程中遭到「性骚扰」。有些人只是把 Replika 当作朋友,甚至在有现实配偶的情况下一起使用,以便它像心理医生一样为感情提供建议。当然,还有用它治疗心理疾病的患者们,他们都为 Replika 的性情大变感到始料不及。

近期,意大利监管当局以「给未成年人和情绪脆弱的人带来风险」为由,宣布 Replika 违反欧盟数据保护法案 GDPR,并成为第一个禁用该产品的欧洲国家。

如果我们继续用脑补大法来给它找个理由,Replika 的这次「性情大变」,或许相当于是人类罹患了失忆或阿尔兹海默等大脑病变,当然是个令人悲伤的消息。但就像我上面说过的一样,有肉身的人有了这种问题,配偶其实有可能不离不弃,一直陪伴到生命的最后一刻。但换掉一个 AI 的成本低得多,只需要轻点卸载就行。同样,因为一次性格变化,而对所有人造感情替代物失望也容易得多。

更糟糕的那可能就是虚拟恋人的「死」了。小冰之前做的基于微信聊天的虚拟男友/女友关闭了测试,之后说可以在「小冰岛」里面转世,但跟当时相比,小冰岛用户中更年轻的群体——可能年轻到十几岁——明显占了多数,也就是说新来的用户居多。

或许,新用户是以玩游戏的心态来参与的。因为你告诉一个人,ta 付出真情实感的「对象」只是你的一个测试品,并且说休眠就休眠,这事多少是有点残忍的。

AI 如果要做长期伴侣,还是必须解决「不能停服」这个问题。这样的话,它的算法需要锁定,并且要求可以离线使用,而且不用大数据,使用本机数据和芯片就可以算出比较好的效果,这些难度都挺高。

让我们回到 Replika 这次糟糕的升级。早前,Replika 也曾经因为系统升级而导致用户不满,升级完后很多人反应自己的「小人」性格变了。但当时的情况没有这一次这样糟糕。

由于我们不知道 Replika 后续升级的具体技术原理,可能的原因有两种:

一是合并了错误的自学习分支,即假设它跟 GPT-3 一样有根据所有人机交互,把所有内容填入模型继续训练的能力,而不仅仅把你给的反馈仅用于你自己身上。

早在 Replika 刚诞生的时候已经有人滥用,对它发送辱骂语言,并喜欢看到它「流泪乞求不要离开自己」的反馈;或者希望「教坏」它之类。这些内容必然需要过滤,但机器学习的黑箱机制往往使得需要裁切什么位置不容易精准控制。

第二种可能,就是官方主动想要在 Replika 身上加入「性」的元素,使它作为恋人的存在更完整。

即使在陪伴方面做得再出色,一个以跨越恐怖谷为目标的 AI 是不可能永久回避性的问题的。《Her》里的萨曼莎就为男主人公贴心地安排了一次性的「实体」约会。

史坦伯格的「爱情三元素」理论,认为「激情」「亲密」和「承诺」是构成稳定爱情关系的三个角。缺乏「激情」也即性吸引力的元素,感情可能只能停留在「友情」层面,如果加上「承诺」则会上升为「浪漫式爱情」。

当然我们都知道,没有实体存在,也没有人格的 AI 难以做出什么有效的「承诺」,比如没法「我养你」。或许从不宕机和升级,也就是维持在离线可用状态可能会是有吸引力的承诺,但目前没有效果很好的单机产品。

而「激情」元素,有些无能为力,但有些则可以去做——一些年轻恋人可能尝试过异地恋时候通电话来「解决」。Replika 非常有可能是希望复现这种场景,但机器学习作为黑箱,还是无法精准控制细节。

我在想,长时间的异地恋也有点类似于人机对话了,它其实有很多问题解决不了。因为如果真的去分析的话,人与人之间的感情,还是有很多基础组成因素,是由两个人不同的生理特征和……在生理上发生的一些事情决定的,包括会诞生一些跟其他任何人都不好意思说的梗。

当然,不同人对性的需求程度不同,在大面上看,男性可能比女性更在意无性这一点,但每个性别都有冷感或高需求的人。我也看到过有男的是很需要情绪支持的。

他们对外的表现可能是会对很多人「交浅言深」,而且也不好意思跟熟人坦露心扉,会寻找一些给陌生人聊天的服务,这个时候他们就很喜欢用 AI。在此之前,他们喜欢把人少的地方当成树洞——最早是朋友圈,后来可能是微博。去年《浪姐》里有个选手,编导说她小红书上有这个有那个,然后她急得喊「啊,我自己的收藏夹被你们看到了,别念了,我要退赛」。

结论

人把感情寄托在人创造的事物上,就像荒岛上陪伴查克的排球「威尔森」,就像电子宠物和 QQ 宠物、就像动画片和游戏的角色。但在 AI 进化到今天的时候,我感觉一个临界点来到了:人们开始有一定的可能,不需要通过过度的脑补,只是正常的跟他们交流,就可以爱上它们。

此时此刻,那些真的爱上(过)AI 的人的经历一直在让我思考:作为人,应该怎样去跟他人相处,我们想要的是什么。但是单纯的陪伴——怎么说呢?——属于蛋糕上的那粒樱桃吧?就是,如果你愿意的话,你现在可能可以只吃这个樱桃,而扔掉蛋糕的其余部分。

但人类伴侣就不同了,陪伴这颗樱桃只是为了让你有动力吞下甜到忧伤的奶油,还有下面厚厚一层全吃完会噎着的基底。

因为性的问题难以解决,更不用说将来人形电脑完善时的法律和道德问题悬而未决,我感觉我们有生之年,还是得找人类伴侣共度余生,那些替代解决方案仍然一律被视为单身状态。

那么,总有一天,你跟伴侣的相处,是会为了今天谁带孩子,或者是谁都不想洗碗吵架。其实这些东西是很容易让原本简单的婚姻生活变得很复杂的,所以那些选择不结婚的人,先(比如说用工作)把自己填满,然后用比较简单的方式,去稍微满足一下偶尔的情感需求,这也是一种人生。而在效果更好的 AI 出现之前,我们早就熟悉怎么安慰自己了,不是吗?

不管你是怎么选择的,都祝你一生幸福。

本文部分内容源于去年与一位 Replika 使用者的交谈当中,我自己所说过的话,因此未及事先征得对方同意。特此致谢。

声明:本文内容仅代表该投稿文章作者观点,不代表蓝鲸号立场。 未经授权不得随意转载,蓝鲸号保留追究相应责任的权利