近日,一条视频火爆全网。视频中,一处高楼起火,在起火楼层的窗口,一只奶牛猫叼着一只小白猫从楼上跳下,下方有消防人员拉起布稳稳接住两只猫。奶牛猫被网友称为“火场里的黑猫警长”。该视频被惠州消防、一些媒体转发。小编发现,目前视频已被下架。

记者注意到,惠州消防抖音号发布视频的日期是4月15日8时许,所发布的视频下方提示“作者声明:内容来源于网络”。该视频被一些媒体转发并标来源于惠州消防。
4月15日15时45分,记者联系了惠州消防,咨询其所发布的视频是真实的还是AI视频,工作人员称会向领导反馈。16时36分,工作人员联系记者称,事件发生于国外。记者询问如何判断是发生在国外以及事件是真实的还是AI视频,“网络素材,我们其实也还没有甄别出来。”记者又询问如何判断是在发生在国外,其称视频中消防员服饰是国外的,不是中国的。
记者注意到,惠州消防微信视频号于15日16时许再次发布了该视频,视频中注明“视频来源于网络 地点在国外 非本地案例”。

记者注意到,4月1日有网友发布过这条视频,视频下方提示“疑似使用了AI生成技术,请谨慎甄别”。


15日,记者联系了视频发布者,其称视频是AI制作的。“别人拿AI做的,给我传过来的,有一个朋友专门就是做这种视频的。”记者提出想联系视频制作者,其称会转达,若其同意采访会联系记者。截至发稿,暂未有人联系记者。

当前,“用AI检测AI”是行业主流选择。对于普通用户,如何能够达到“人眼识别”?
某科技公司负责人告诉记者,现阶段AI视频生成技术仍受限于长时程、高复杂度片段的制作,视频时长与复杂度越高,生成误差率越高。通过细节观察可识别AI视频特征,例如背景区域、光线反射处常存在细节瑕疵,包括无逻辑光斑、非自然扭曲等异常现象。
涉及真人形象的AI视频,核心可通过面部特征判断。AI数字人面部多呈现高度对称形态,而自然人面部因生活习惯等因素存在生理性微差异,属于正常现象。肌体动作一致性也是重要判断依据。一些直播数字人,需要有观众互动和观众记忆,自说自话大部分就是数字人。此外,一个比较关键的判断就是动作是否真实。若视频中人物说话时重复固定动作,甚至肢体摆动幅度完全一致,大概率为AI生成内容。
“遮挡测试是目前最有效的物理鉴定方法。”一位专业人士向记者透露,AI换脸最惧怕“遮挡”——因为算法需要持续锁定面部特征点,一旦有物体遮挡脸部,算法就会出现紊乱。在直播间里,你可以要求对方在脸前挥挥手,或是拿杯子喝口水,当手指、杯子经过面部时,AI换脸往往会露出破绽,比如面部出现扭曲、闪烁,或是手指边缘变得模糊、与面部发生融合。
需要注意的是,AI视频逼真度正持续提升,普通用户区分AI视频与真实视频的难度显著增加。北京航空航天大学法学院副教授赵精武说,遇到陌生视频、消息等内容时,切勿急于转发,应优先通过主流新闻网站、官方发布渠道等权威平台进行交叉验证,有效降低被AI视频误导的风险。此外,主动处置不良内容。发现谣言、虚假信息时,需及时进行投诉举报;情节严重的,可以向公安机关寻求帮助。若遭遇侵权行为,应做好证据留存,及时维护自身合法权益。
以标准与伦理守护“技术向善”
针对AI造假问题,我国正出台多项治理措施。9月1日起施行的《人工智能生成合成内容标识管理办法》(以下简称《标识管理办法》)要求:AI服务提供者须在生成内容时自动添加显性与隐性标识——显性标识以文字、音频或图形提示的方式帮助用户直接识别,隐性标识则嵌入元数据信息,记录生成来源及服务提供者编码,实现内容可识别、可追溯、可核验的全流程管理。
赵精武认为,对《标识管理办法》的落实可进一步细化。一方面,需要继续巩固中央网信办“清朗·整治AI技术滥用”专项行动成效,形成周期性、常态化的AI技术应用巡视机制;另一方面,公安机关等执法部门需要对这类AI技术背后的网络黑灰产业链进行严厉打击。未来,针对这类AI技术滥用情况,应建构专门的协同执法机制,彻底切断违法产业链。同时,尽可能对标识标准进行统一,并对平台加强监管,防止因平台逐利而少标识、不标识。
“生成式AI的治理绝非简单的‘禁止’或‘放任’,而是要在保护创新活力与守住法律底线之间找到平衡点。”王风和说,应持续推进技术标准与法律规范的协同创新,完善“标准—检测—评价”的闭环治理机制,让生成式AI真正服务于社会进步与公众福祉,实现“以人为本、技术向善”的治理目标。
来源 | 羊城晚报综合潇湘晨报、法治日报