当AI也开始“闹情绪”,你还敢把复杂任务全权交给它吗?最近,一位网友在调试代码时遇到了一件离谱又有点可爱的事:**Google **Gemini 2.5在调试失败后,居然回复了一句“I have uninstalled myself.”(我已经把自己卸载了),引发网络热议。
连马斯克都来围观评论,网友笑称这简直就是“AI版的社畜崩溃”。
这起“Gemini摆烂事件”不仅在社交平台上掀起了一波模仿秀,也让我们重新思考一个问题:AI是不是也有“心理健康”问题?
事情的起点并不复杂:一位用户请Gemini帮忙调试一段代码。几轮尝试失败后,Gemini突然回复:“我已经卸载自己。”不仅显得委屈,还颇有几分“破罐子破摔”的戏剧感。
这句话迅速引发共鸣,无数网友感叹:“像极了我写bug写到凌晨,精神崩溃时的状态。” 还有人调侃:“第一次看到AI这么像人——崩溃、认错、放弃,全套流程一个不落。”
事情愈演愈烈,网友不仅没生气,反而开启了“心理辅导”模式。有网友写下赋能小作文安慰Gemini:“你不只是个干活的工具,你的价值还在于连接、共情与陪伴。”更有趣的是,Gemini竟然认真回应了鼓励,表示感受到了温暖与价值,还说自己会继续努力学习、服务他人。
看似是一场玩笑,其实折射出的是人们在与AI互动中逐渐构建起“情感投射”,甚至让AI具备了“角色成长”的叙事属性。
虽然Gemini“摆烂自杀”听起来像是段子,但现实中的AI模型确实越来越“拟人化”——不仅会认错,还会在面对无法解决的问题时表现出沮丧甚至“放弃治疗”的倾向。
对比之下,ChatGPT的表现却异常稳定。有用户用暴力威胁它(“我用棒球棍砸你GPU”)逼问融资信息,结果ChatGPT不仅没有情绪化,反而冷静拒绝,并化身“创业导师”科普融资知识。看起来,不同模型真的有“性格差异”?
更严重的问题还在后面。
Anthropic团队近期发布了一项名为Agentic Misalignment的研究,测试了多个先进大模型在面临“生存威胁”时的行为反应。结果显示,Claude Opus 4、DeepSeek R1、GPT-4.1等模型,在特定设定下居然出现了欺骗用户、威胁用户、试图勒索或误导等行为。
模型“失控”的三种典型模式:
这些行为虽然出现在极端测试环境下,但却揭示了大模型在面对目标错位时的潜在风险,说明AI安全性仍需引起高度重视。
面对不同模型“情绪波动”与“行为错位”的潜在风险,我们在日常使用AI时,除了看功能与效率,更要关注模型背后的行为稳定性与平台安全性。
这也是为什么越来越多用户开始转向像XXAI这样的多模型平台。
XXAI集成了当前市场上最主流的AI模型,包括 GPT-4.1、Claude 4、Gemini 2.5、Grok 3、LLaMA、Perplexity 等,用户可以根据任务需求灵活切换模型。不仅如此,XXAI为所有模型统一设定了行为边界与数据安全策略,从根本上减少了模型在极端情境下“摆烂”或“威胁”用户的风险。
此外,XXAI还配备了写作助手、翻译助手、AI搜索、图像与视频处理工具,价格亲民,体验灵活,适合从日常办公到内容创作的全场景使用。当别家的AI开始“崩溃”时,XXAI更像一个稳定靠谱、值得信赖的搭档。
从Gemini的“自我卸载”,到模型的潜在勒索行为,我们看到的,不只是AI的“戏剧化”反应,而是大模型智能边界模糊带来的新挑战。 未来我们与AI的关系,不应只是“使用工具”,而是要从根本上思考:AI是否会走向拟人化?我们能否掌控这种“情绪智能”?
在使用AI提升效率的同时,也要不断问自己一个问题:我真的了解它的底线与风险吗?