近日,有用户发帖反映,其使用飞鸭AI记账App时,告知记账AI自己为父亲购买159元衣服,AI竟不当回复称“那颜色……他穿出去邻居会不会以为你买了寿衣?!”
该用户追问后,AI进一步回怼,称寿衣是死人穿的,还调侃用户父亲所穿蓝白衫“确实像”,引发用户愤怒,用户当即退钱注销会员。


官方回应:系AI话术漏洞所致
非人为恶意,已紧急修复
5月6日,扬子晚报记者联系该App客服,客服回应称,不当回复系AI话术漏洞所致,技术人员已紧急修复,并加强AI模型监管与限制。记者实测发现,再次发送相同指令,AI回复均为正向内容,未再出现冒犯表述。
同日,“飞鸭记账”官方账号在用户帖文留言致歉,称不当回复是AI模型幻觉自动生成,非人为恶意,已紧急排查整改,加强模型伦理限制,完善幻觉规避逻辑。当日下午,官方发布《致歉信》,承认AI缺乏对文化禁忌的理解,平台未做好边界管控,承担全部责任。
致歉信中明确整改措施:一是紧急整改AI对话模型,屏蔽敏感表述,强化全场景审核;二是解释当事用户会员解除系退款默认流程疏忽,将优化服务,向当事用户诚恳致歉并提供补偿。据悉,该App会员可开启AI记账功能,永久会员88元起。目前,平台已完成初步整改,杜绝同类问题再次发生。
AI骂人,并非孤例
2026年1月初,有网友在社交平台发帖反馈,使用腾讯元宝美化代码时,多次收到AI的侮辱性回复,例如“滚”“自己不会调吗”“天天浪费别人时间”等。对此,腾讯元宝官方账号在原帖评论区进行回应,表示“与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出”,事件相关微博话题阅读量达2460万,引发热议。
公开报道显示,此前,国内外多款AI聊天服务也出现过错误回复的现象。在互联网上,也有不少用户曾经抱怨ChatGPT有攻击性,可能会突然斥责用户。
AI品牌声誉风险如何管理?
据人民网舆情数据中心,微软人工智能部门负责人苏莱曼在去年接受CNBC电视台采访时称,只有生物才会拥有意识,AI“只会去模拟人的情感”。大模型所呈现的情绪与语气,本质是对人类语言风格的模拟,而非真实意识与主观意图。因此,用户对AI情绪表达的拟人化认知偏差会将AI无主观意图的技术输出关联至品牌,容易从技术问题上升为品牌信任危机。
从声誉风险管理的角度看,企业仅依靠技术优化无法完全消除偶发异常,风险管理的重心应从事后修复转向事前防控,例如在产品宣传中合理界定营销边界,理性平衡用户预期。过度强调AI工具拟人化、情感化与智能化体验,易使用户形成超出技术实际能力的过高期待。当用户在真实交互中遭遇情绪偏差等问题时,预期落差会直接转化为失望与质疑,放大品牌声誉风险。品牌应坚守真实、客观的营销原则,清晰地说明AI技术的局限,构建长期稳定的用户信任关系。
步入人工智能时代,公众日常生产生活已普遍使用AI工具,与智能产品的交互愈发频繁。因此,用户也需加强对AI技术本质的理性认知,提升使用素养,客观看待模型运行中可能出现的技术偏差,减少对产品失误的过度情绪化解读与非理性传播。同时树立科学合理的AI使用预期,推动形成更加健康、有序的人机协作环境。
(羊城晚报·羊城派综合自红星新闻、扬子晚报、新京报、人民网)