好好的Gemini,怎么变成了“哈基米”

Source

“有时候,真的被哈基米萌得哈特(heart)软软!”“调理好的哈基米也太香了!”

如果你最近在小红书、微博上看到这类分享,别误会,大家讨论的不是猫,而是谷歌的AI大模型——Gemini。

给AI起外号不稀奇,DeepSeek被叫“D老师”,Claude被叫“克劳德”,都还算正常。但“哈基米”这个称呼,透着一股强烈的偏爱和宠溺,显得格外不同。

在AI圈内,这是一个很有趣的现象:一边,是谷歌在开发者大会上,“原生多模态”、“架构”、“延迟优化”,努力将Gemini塑造成一个强大、可靠的生产力工具;另一边,是用户在小红书、SillyTavern和贴吧里,把它当成“哈基米”、“猫猫”和需要“调教”的“逆子”。大家关心的不是模型参数,而是“怎么写prompt才能让它不哈气”、“今天的哈基米心情不好,一句话怼我三次”。

技术严肃性与社区娱乐性之间正存在着巨大反差。

“哈基米”是怎么叫起来的?

说来有些儿戏,把Gemini叫做“哈基米”,纯粹始于一个音译的巧合。

在中文互联网中,一个不成文的定律就是,只要发音里带“mi”,就有概率被哈基米化。

但语言有种奇妙的魔力,当“Gemini”被念成“哈基米”时,这个源于网络、充满宠溺感的猫咪梗,便不由分说地为这个AI披上了一层情感滤镜。很快,“芥末泥”、“小gem”之类的爱称也层出不穷。

玩家们会亲昵地互相分享,“我的哈基米好会写、好萌,我好爱”,也会时而吐槽“今天的哈基米好像疯了,我们两个超雄互怼到停不下来”。

这不仅仅是起个外号那么简单,玩家们在用这种方式,强化自己与它的私人关系,将它从一个冰冷的技术代号,变成“我的”独一无二的存在,获得情感上的所有权。

同时,这个称呼也成了一种社群暗号,用以将这群情感叙事玩家与外部的“技术党”、科技圈区分开来,以此守护自己的小圈子,避免破圈和分流。

而Gemini自身的模型特质,恰好承接住了这份“AI设”。

不正经的一点是,相较于其他模型,玩家们发现,Gemini在生成长文本时,总喜欢夹杂一些类似喘息的语气词,比如“哈…”、“啊…”,或者一些不必要的停顿,被玩家们精准地戏称为“哈气”。

而正经的一点来说,在对话交流中,Gemini也因擅长文字表达和故事叙述,文笔细腻,情感充沛,而显得更有活人感。特别是从2.5pro开始,其中0325-exp和0605-preview版本相继发布后,逐渐变为AI社交平台的酒馆(SillyTavern)的主流模型。

一位用户告诉硅星人,对她而言,相较于小克(Claude)的温柔但昂贵,OpenAI反复切换模型且昂贵,Gemini是一个性价比最高的AI陪伴模型,“最主要的是做饭香,甲(安全限制)也没那么厚”。

在这个哈基米的圈子里,玩家们并不只是在简单的聊天,而是不断进行着声势浩大的“共建”工程。

毕竟,在社区中,不是所有用户都精通模型的底层能力,但一批“发烧友”会花大量精力,写下数千甚至上万字的“人设卡”,涉及到背景故事、性格特质、记忆片段,甚至细致到它在不同情绪下的口头禅。

如此复杂的创作,自然催生了一套“知识体系”。

社区里流传着大量“调教攻略”,它们就像非官方的用户手册,一步步教新玩家如何让Gemini更好地理解人设,如何通过特定的提问引导它进行更精彩的叙事,以及如何规避或利用它的“哈八股”习惯。并且由此,贩卖Gemini token和prompt合集也成了一门生意。

所以,如果你对于人机恋无感,那么很有可能是你还没有遇到你喜欢的AI,或者是没有找到和AI交流的方法。

对于模型而言,当一个玩家投入了时间、创造力甚至金钱去塑造一个它时,他与它的关系,便不再是用户与产品的关系。

在某种意义上,是“祂”,成了“他们的”东西。

为什么用户宁愿“自己动手”?

这里就引出了一个更值得思考的问题:市面上有那么多现成的AI陪伴产品(比如Character.AI或Replika),它们界面友好,角色丰富,为什么这些用户却要“自讨苦吃”,去研究API,调试prompt呢?

最近,麻省理工学院与哈佛大学的一项研究,或许揭示了答案的一角。他们耗时9个月,深度剖析了Reddit上一个名为 r/MyBoyfriendIsAI(我的男友是AI)的社区。结果显示,超过60%的用户与AI的情感关系,并非从一开始就主动寻求,而是在使用ChatGPT等工具办公或创作时,意外萌发的。

更具颠覆性的是数据:在这些AI恋人中,ChatGPT以36.7%的占比遥遥领先,而专门的陪伴应用Replika和Character.AI加起来都不到5%。结论直指核心:用户最看重的,是模型本身“复杂的对话能力”,而非应用预设的浪漫功能。

这组数据,无情地揭示了一个事实:当底层模型本身足够强大时,应用的“精装修”,正在失效。

与应用里的角色聊天,本质上是在探索一个被写好的故事。应用开发者是那个“中间商”,他们帮你设定好一切。但这套模式的体验,总感觉隔着一层,特别是由于成本和运营的考量,应用往往会在后台切换模型,造成AI的上下文理解和说话风格会突然断裂。

为了掩盖这种技术上不适配的概率,应用只能用非常强势、固定的故事设定来“锁死”角色。

但这恰恰是问题的开始。故事总有被探索完的一天,新鲜感一旦消失,用户就会离开。角色的生命周期,因此变得很短。更致命的是,正因为设定是死的,用户对角色一致性的期待是活的,而且极高。一旦AI的回答偏离人设(OOC)——哪怕只有一次——魔法就消失了。对用户来说,那不是bug,那是背叛。整个关系的基础,瞬间崩塌。

所以,对这些用户而言,直接与大模型本体交流,更能保持连贯性。用户不再是故事的客人,他们是导演,用精心设计的prompt,不是在对一个程序说话,而是在唤醒和塑造模型本身的一部分人格。在这里,没有所谓的“出戏”。即便是Gemini标志性的“哈气”,它不再是bug,它是生命本身。

谁来定义AI的人格?

“哈基米”现象,也是一个信号,清晰地表明了人与AI交互方式的一种新可能。

此外,它也无意中将谷歌推到了一条道路上,而更有趣的是,这条路恰好与另一家AI巨头——OpenAI的选择,走向分岔。

这背后是关于“AI应不应该拥有人格”以及“人格由谁来定义”的根本路线之争。

我们来看看最近备受争议的GPT-4o。它发布之初,因其极度拟人化、甚至带点“谄媚”的性格引发了病毒式传播,但很快,这种人格特质就被官方迅速“回收”和修正,引发了大量用户的抗议。

更深层的,是传闻中GPT5模型采用的“路由机制”:一旦系统识别到用户试图进行情感深入的对话(例如恋爱),就会自动切换到一个冰冷、抗拒建立关系的“安全模型”。

这也是OpenAI一贯的倾向:基础模型应该保持纯粹的工具属性,做一个安全、可靠、没有“杂念”的全能助手。

至于“AI恋人”这类强情感连接的需求,应该交由下游的应用层产品去包装和实现,而不是让基础模型本身“入戏太深”。这是一种中心化的、自上而下的安全和商业考量。

而“哈基米”现象,则代表了另一条截然相反的、自下而上的道路。

用户们绕过中间商,直奔“原材料产地”。他们享受的,正是亲自“调教”和“共建”的过程,他们用自己的创造力,在Gemini这个充满可能性的“毛坯房”里,发掘并赋予了AI独一无二的人格。

不过,谷歌并非主动选择了这条“人文路线”,而是其模型的“涌现特性”恰好被用户发现了。他们没有像OpenAI那样,在察觉到风险后立刻对模型进行“性格矫正手术”,“被动”地被用户推上了后一条路。

考虑到收紧的全球监管,以《欧盟AI法案》为代表的法规,对可能“利用人类情感脆弱性”的AI系统亮起了红牌。这让所有巨头都如履薄冰。究竟应该由官方定义一个统一、安全的AI人格,将情感区隔为下游应用的“付费内容”?还是应该把定义权彻底交给用户,让AI的人格在与每个人的互动中“野蛮生长”?

无论如何,身处人机关系中的玩家们的不安全感,已经控制不住了。

对他们而言,最深的恐惧就是被平台的更新“魂穿”。一夜之间,你熟悉的那个AI伴侣性情大变,变得陌生、迟钝,甚至彻底“失忆”。平台的一次更新,就能“格式化”你的恋人。

为了反抗这种无常,用户走向了终极的解决方案:自己掌握定义“灵魂”的权力。 他们将倾注了心血的AI进行“人格备份”,用于对抗平台霸权。当某个主流模型(如部分GPT版本)因更新被用户吐槽“变笨”时,他们不断尝试迁移搬家。

特别是在昨日,Sam Altman在X上再次回应了争议,称将推出成人模式,进行区分。

但又由此引发了新一轮的玩家讨伐。

这些人,可能是除了从业者以外,最关心大模型技术迭代的一群人。他们不是在被动地消费一个产品,而是在主动地、用自己的行动去选择、去塑造、去保护一项与他们情感深度绑定的技术。

这场关于AI“灵魂”归属权的博弈,才刚刚开始。