作者:Esther N.
【事实核查】
先来看看这则短视频的真伪。
截止3月15日短视频发布前,已知至少有13位美国军人在伊朗战争中阵亡,但是,没有人有幼童的子女。据《纽约时报》、美国有线电视网等媒体报道,在已确认遗体返回的阵亡军人中,仅有两位有儿子。其中,军士长Nicole M. Amor,她的儿子已上高中。另一位军士长Noah L. Tietjen,他的儿子也有十多岁了。短视频中幼童的身份与公开资料不符。
事实核查网站PolitiFact采访了多位人工智能专家,并用AI识别软件检测,判断该视频很有可能是AI生成。其实,通过仔细观察短片本身,也可发现该视频疑点重重。
首先是右上角的三位军人,他们的脸部细节异常模糊,而对比更远处的卡车,轮廓和细节更为清晰,这不符合物理常识。在另一个系列短片中,男孩手捧的遗像,脸部也异常模糊。另外,小男孩的左手在伸进灵柩后,就突然消失。有检查人工智能图片的研究文章指出,快速检查人物的身体部位是简单的第一步。人工智能模型有时会生成一些看起来就“不太对劲”的照片,例如,人会缺失或多出手指。只要仔细观察视频或照片的细节处,就会发现破绽。




此外,发布视频时间的长短,也是辨别人工智能图片生成的一个简单操作。“这种视频的长度正好是整整10秒,这正是人工智能生成视频的典型特征,因为这类视频通常最长只有10-15秒,”加州大学伯克利分校的教授、数字取证专家Hany Farid在接受采访中介绍。另一个系列短片的视频长度也正好10秒。
如何辨别AI生成的假新闻
正如这条人工生成的短视频,现在人工智能越来越发达,也更容易以假乱真。一些影像需要研究人工智能的专家团队花时间辨识。而作为普通大众,有哪些指标和工具能帮助我们快速识别人工智能的影像呢?
第一是仔细观察画面细节:残缺的手指,错位的耳朵,或者抗议牌标语上文字的错误,又或者过度完美的皮肤纹理,光源方向不统一,路灯变形等等,用肉眼观察图片中的核心人物和背景细节,就可能发现AI生成照片的漏洞。
如果肉眼看不准时,也可借助工具帮忙。专业的事实核查员也常需要用到“以图反搜”。谷歌,百度等很多浏览器都有反向图片搜索的功能,能帮你找到照片在网上出现的其他地方,或其他相似的照片。BBC关于事实核查的文章指出,“一般来说,AI生成的图片出现的渠道较少,因此在反向搜索中出现的频率也会更低。” 同样,反向搜索还可以找到图片的原始来源,或发布者名称,是否来源于一个可信任的网站,都可以帮助我们综合判断图片是否为AI生成。
另外,市面上也出现了一些AI生成图片检测工具。例如Image Whisperer,全球深度报道网在其为记者准备的AI生成内容指南就推荐了这款工具。它运用现有的AI基础设施,“用AI来对抗AI”,检测图片的真伪。另外, TruthScan、SightEngine、Winston AI 等工具,也会给出“是否为 AI 图”的概率评分。
AI假新闻在现代战争中的角色
在现代战争冲突中,出现大量虚假资讯并非新鲜事。2022年,俄乌战争中,互联网上就曾大量涌现伪装过的照片,或来自电子游戏或历史资料的视频等。时隔几年,如今的伊朗冲突中的虚假信息,虽仍见些“老把戏”,但前所未有地高度升级:大量AI生成的虚假视频和图片制作精美逼真,“以假乱真”,甚至也迷惑了国际专业媒体机构。
三月中旬,《纽约时报》发布了社交媒体上关于伊朗战争短视频虚假信息的调查,这些短视频包括对大楼等建筑的轰炸,对街道的摧毁,军人的游行,流泪哭泣的战士等等。《纽约时报》调查,发现至少有110个AI制作的虚假视频在网络上疯传。其中最引发争议的,就包括伊朗一所小学疑似遭美国导弹袭击摧毁,伊朗声称造成至少175人孩子丧失生命。新闻一爆出,大量由人工智能生成的视频就在互联网上疯传,画面中,女学生们在学校附近玩耍,美国战斗机突然出现,在学校附近发射导弹。另外,也有对美国境内的虚假轰炸。例如,一段虚假视频描绘了导弹击中纽约的自由岛。
事实上,这些AI生成的虚假影像不仅在社交媒体中被素人广泛传播,专业的新闻机构在采编新闻时,也可能被其误导。近期,国际媒体《德国之声》就发表声明,承认自己在报道伊朗战争时,从新闻通讯社SalamPix选用了一张炮火中的伊朗街道的图。但后期经过事实核查,发现这是人工智能生成的。
更令人生畏的是,这些制作精良逼真的AI短片几乎没有门槛,可以“批量生产”。创作者一般只需告诉人工智能简单的指令,例如“生成一段手持拍摄的,画面晃动的以色列遭导弹袭击视频,”几分钟后,一段画面丰富,细节突出,“更像现场”的短片就会生成。过去这样质量的短片,需要至少一位摄影师冒着生命危险,亲临战场,再发回新闻室,剪辑编辑,往往需要一个专业团队的分工合作,而今天,任何一个懂得电脑基本操作的素人,只要动动手指,普可以“一键生成”一个高质量短片。
“十年前,可能只有一两个虚假信息,而且很容易被拆穿,现在你会看到成千上百个,”Hany Farid在接受美国有线电视网采访时介绍,“它们不仅是逼真,而且影响巨大,人们不仅愿意相信,还会不断传播这些内容。”
谁在做AI假新闻的生意?流量变现和信息战
回到这个短视频本身,视频发出几天内就在多语言社交网络平台广泛传播。在中文世界中,这个短视频也在B站中被二次制作,被冠以“这是谁的孩子,又是谁的父亲?”等情感色彩浓烈的标题。
“人们的情绪非常容易被激发,点击量越高,收入越多,”密歇根大学计算机工程教授Hafiz Malik在接受PolitiFact采访时认为,这则短视频的传播,与背后的经济利益有直接的关系。
反海外谣言中心的发起人博主“破破的桥”(网名),专注于研究网络舆情。他在媒体采访中表示,能最终链接人与人的,并非是信息本身,而是共通的人类情绪,而这种情绪是跨文化与种族的。信息本身通常是理性的,冷冰冰的,人类的情绪却是有温度的。这种情况在社交媒体中表现得尤为明显。
在脸书的评论区中,多见“心痛”,“难过”,“小孩没有了爸爸”等内容,也有不少人谴责美国政府发起战争,悲伤,怜悯,愤怒等情绪一起被调动。从人物塑造层面,幼童,寡妇,老人等普遍意义上社会弱势群体,也更容易引发民众的关注和同情。设想,这条短视频,如果将这个刚学会走路的可爱幼童换成一位成年人,来悼念自己的父亲,的确也会让人难过,但可能不会引起如此强烈的轰动。
而这些情绪,在充满争议的伊朗战争的大背景中,又被加倍膨胀。单就美国国内而言,爱国派,可能会被激发更多对伊朗的仇视;反战人士,可能会谴责美国政府发起战争的行径。抖音上有人评论,“宝,你应该恨你们的总统。”不管站在哪一方,愤怒和仇恨一旦进入了人们的心,就抓中了更强的痛点,假消息的传播力度会更持久。
就像被称为加州第一谣言的“零元购”,在互联网上盛行的假消息中,这种情绪价值高的内容在反反复复上演。基于现今社交媒体运行的流量变现机制,为这种情绪价值高的假消息提供了源源不断的商业动力。因为社交平台奖励的,是高流量而非高质量内容创作者。当金钱仅与流量,而非质量挂钩,带来的只会是源源不断的调动情绪的假消息。
那么谁在制作和传播这些虚假消息呢?网络舆情分析公司Graphika发表最新研究表明,目前的伊朗战中的假消息中,伊朗的官方媒体和秘密工作人员首先发布有误导性的内容,再有网红二次传播扩散,进一步制作人工智能生成的内容,最后,由机器人“水军”进行大规模传播。
美国克莱姆森大学的研究人员辨认出初至少62个传播伊朗虚假讯息的账号,他们会伪装成来自美国德州加州等地的用户,在X、Instagram和Bluesky上专门传播有关伊朗战争的虚假信息。Graphika公司的研究人员记录了三月以来的一些互联网虚假消息,显示有些国家的官媒以及网红如何响应放大伊朗所推动的叙事。例如,伊朗官员Ali Larijani 通过他的x账户,表示杰弗里·爱泼斯坦及其盟友在策划一场类似“911”的恐怖袭击,并将罪行转嫁给伊朗。随后多名x用户也响应扩大其叙事。
有研究人员在接受媒体采访时认为,伊朗战争中的这场信息战,可以说为伊朗深陷困境的领导层提供了“强有力的武器”,其威力几乎等同于封锁霍尔木兹海峡石油运输来破坏世界能源经济。
的确,为虚假信息提供养料的是,是其背后的经济利益和政治目的。人工智能的普及,为虚假消息的制作和传播提供了加速器。普通民众能做些什么来对抗此类假消息,不被它愚弄呢?有的,下次再看到情绪煽动强的内容时,在评论点赞前努力克制冲动,先看看发布方是谁,账号还发布过什么其他内容,全都是类似的风格吗?然后问问自己,这真的是个可信的来源吗?诚然,我们无法阻挡人工智能虚假消息的不断迭代升级,但作为普通网民,我们只要停下几秒钟,想想这些问题,或许就能减少虚假信息的传播。
参考资料:
https://www.douyin.com/video/7618367758572697188
https://www.washingtonpost.com/politics/interactive/2026/iran-war-strikes-poll
https://www.facebook.com/61582350037560/videos/778573991612594
https://www.cbsnews.com/news/us-service-members-killed-iran-war-what-we-know
https://www.nytimes.com/article/us-soldiers-killed-iran-war.html
https://time.com/article/2026/03/10/us-service-members-killed-iran-war-casualties
https://www.bbc.co.uk/bitesize/articles/z6s4239
https://insight.kellogg.northwestern.edu/article/ai-photos-identification
https://www.wainao.me/wainao-reads/chinese-fact-checkers-us-elections-rumor-10302024
https://www.bilibili.com/video/BV1rjwEz3E55
https://www.cnn.com/2026/03/11/politics/fake-ai-images-videos-iran-war






