1945年7月的一个黎明,一道比千个太阳更强大的闪光照亮了新墨西哥州的沙漠天空,全世界都屏住了呼吸。

那一刻,不仅原子弹诞生了,一个新时代也诞生了,这个时代由一股强大的双面力量统治:一股力量承诺提供取之不尽、用之不竭的能源,照亮我们的城市;另一股力量则威胁着彻底毁灭,摧毁我们的城市。这是历史上的普罗米修斯,但在20世纪,破解原子密码赋予了人类神圣之火,但也赋予了人类控制其毁灭性火焰的重担。

今天,我们站在类似的历史关口,但舞台不再是遥远的沙漠,而是我们周围的数字空间。我们现在破解的密码不是原子密码,而是智能本身的密码。人工智能是我们时代的普罗米修斯;它是一种变革的力量,蕴含着超乎想象的希望,同时也带来了不亚于其核前辈的危险。

正如核裂变可以为电网供电或为弹头提供燃料一样,人工智能系统也展现出同样的二元性。诸如能够制定人类无法想象的国际象棋策略、在几天内发现新型抗生素,或能够模拟人类对话等令人震惊的成就,这代表着光明和希望的一面。它预示着一个科学发现加速、效率空前提高、人类能力不断增强的时代。

但这种前景中也潜藏着滥用的危险。诊断疾病的系统也可能被用来设计自主武器。智慧城市中管理交通的网络可能会被改造成大规模监控的工具。而它们如此巧妙地生成的语言,可能成为传播虚假信息和侵蚀社会信任结构的最有力工具。这里的危险不仅仅是物质的毁灭;更是意义、真理和自由意志的毁灭。

自2023年10月7日袭击事件以及随后以色列占领军在加沙地带针对无辜民众实施大规模杀伤和蓄意轰炸以来,我们一直生活在这种困境之中。随后,线索逐渐清晰,并指向人工智能参与了这场种族灭绝。

致命数据!

2025年8月6日,英国《卫报》刊文指出,微软的Azure云服务提供商参与了以色列军方8200部队的行动,并存储了战前加沙地带230万居民的数百万条通话录音。

报道指出,这些通话是以色列军方实施的信息监视行动的一部分——以色列军方将所有加沙地带居民视为潜在威胁和嫌疑人。

该文章与之前的报道相符,即以色列军方使用了一套专为特殊军事任务设计的人工智能软件,并证实其设计人工智能系统并向其提供数据的过程可能早在2021年就已开始筹划。

以色列军方打造了由三个人工智能系统组成“死亡三部曲”:“薰衣草”(Lavender)——针对加沙居民的推荐和分类系统;“爸爸在哪儿”(Where’s Daddy)——信号跟踪、监控和分类系统;“福音”(Gospel)——类似于薰衣草的系统,但它针对的是设施而非个人。这就创造了一个计算机化的环境,以利用人工智能分析数据、提取结果,并在极少的人工监督下做出空袭决策。

追踪嫌疑人并迅速决定消除威胁,同时最大限度地减少人工干预,这似乎是一个聪明的想法,这也是该实体想要达到的效果。然而,这些系统背后的动态细节才是本文的主题,尤其是其“薰衣草”系统。

在深入探讨该系统的细节之前,让我们强调一个在统计学和人工智能专家看来不争的事实:数据是任何基于人工智能系统的燃料。用于训练人工智能软件的数据越多,其效率就越高。然而,数据的质量在预测人工智能软件学习的模式和行为方面也起着重要作用,以使其能够在未经训练的数据中发现并预测这些模式。

如果我们想要收集加沙地带人口的数据来构建一个模仿“薰衣草”工作的系统,我们就必须为每个人收集大量的数据。这可能包括通讯模式,例如每日通话次数、接听者身份、是否在加沙地带境内外、个人的社交媒体活动以及他们与可能与任何通缉犯或嫌疑人有关联的个人的联系。

这些数据还包括同一个人联系电话或地址的变更频率,以及此人的外貌,甚至是其手机上存储的号码。将这些信息与《卫报》发布的信息进行比较,我们可以发现,由于数据量巨大,8200部队已开始使用云服务来存储这些数据,并已聘请微软专家协助开发一些软件。

报告显示,这些与人工智能相连的系统使用这些数据来确定空袭的地点和时间。报告还指出,这些系统发布的决策被视为正常决策,并由一个拥有人类身份的实体发布。

因此,我们面临着一个纯粹的人道主义困境,并由此引出一个问题:加沙地带发生的这场种族灭绝是由人工智能软件策划和执行的吗?还是正在发生的事情证明了以色列占领军凭借其现代化装备和间谍卫星,无法精确地清除所需人员,同时限制针对平民的杀戮?鉴于无法精确统计被埋在废墟之下的平民、失踪人员和饿死者人数,平民的遇难人数可能已经超过了6万人。

微软的Azure云服务提供商涉嫌与以色列国防军8200部队存在牵连

“薰衣草”软件的性能为何超越核弹?

这引出了一个更为重要的问题:在针对平民的军事行动开始时,这款软件暗示了多少平民死亡?

要回答这个问题,我们必须更深入地了解以色列关于这款软件的叙述,并了解其工作原理。“薰衣草”软件旨在通过我们提到的数据和人工智能算法,以识别和评估涉嫌与哈马斯(巴勒斯坦伊斯兰抵抗运动)合作的人员。

该系统会分析我们提到的数据类型,包括先前已识别或捕获的哈马斯成员,以创建特定的模式。然后,它可以将这种模式与加沙地带的人口数据进行比较,预测一个人是否具有与其训练模式类似的模式。基于此,嫌疑人将获得总分为100分的评分。即使该系统对一个人的评分为1/100,他们也会被视为嫌疑人,并根据系统将其视为已验证的目标,从而被消除!

初步报告显示,以色列军队已启用该系统的模式预测流程,其准确率高达90%。初步报告还显示,被归类为嫌疑人的个人造成的平民伤亡(附带损害)可能高达15至20人!这还是在嫌疑人在该人工智能评分体系中得分较低的情况下。

有时,被归类为嫌疑人的个人造成的平民死亡(附带损害)可能高达100人!这是因为以色列占领军在空中轰炸中使用了非制导炸弹。对于一些参与这场种族灭绝的西方专家而言,这一切似乎显而易见且易于接受,但其细节中却暗藏玄机。

在人工智能专家的帮助下,这种说法充满了矛盾。众所周知,如果人工智能软件在有限的数据样本上进行训练,那么在处理更大的数据样本时,它将无法找到类似的模式。

假设8200部队掌握了所有被捕并被确认与哈马斯合作的人员的数据,相对于居住在加沙地带的200万人,这些人的数量是多少?此外,收集到的数据中主要包含哪些因素?例如,是每日接触率,还是特定地点附近区域是否有人存在?

以上种种不禁让我们思考以下问题:以军宣称其软件性能准确率高达90%,这究竟意味着什么?它是如何确认盲目空袭击中了特定目标,且该目标与哈马斯成员有关?还是说,这个百分比只是基于有限的哈马斯成员数据训练软件的准确率?又或者,这个百分比根本无法反映该软件的实际预期?又或者,这仅仅是预先准备的、具有特定特征的数据集,用于测试软件并得出错误结果?

美国巨头微软就曾遭遇过这种情况。该公司推出其人工智能模型“Phi-3”并宣布其在数学、GSM8k等测试中表现出色,但后来才发现,该模型训练的数据包含来自这些测试的数据样本,并且该模型保存了这些数据并在测试中呈现,而非其预测或分析的结果。

相反,10%的误差幅度则意味着在每10名人员中,系统就会错误计算出1人,还将包括随之而来的平民死亡人数。

这就引出了下一个问题:仅仅因为基于人工智能的系统决定而这样做,预计会有多少平民遇害?

在深入研究后发现,“薰衣草”计划的设计初衷是根据每个嫌疑人可能造成的平民死亡人数来决定是否对其进行清除。初步报告显示,在2023年10月7日袭击事件发生后,以军对“薰衣草”计划进行了一些修改,并确定加沙地带约3.7万名嫌疑人应成为目标。

如果我们假设所有嫌疑人都被归类为低级别嫌疑人(尽管这个假设很荒谬),那么根据该系统,每人至少会造成15位平民伤亡。将37乘以15,得出的平民死亡总数为50万,其中5万人是由于10%的统计误差造成的,其余的则如他们所描述的那样,是附带损害!这将超过广岛和长崎原子弹遇难者的总人数。

或许占领军想要打破历史上无辜受害者的纪录,甚至打破纳粹军队轰炸伦敦和巴黎所造成的无辜受害者人数的纪录——正如我们之前指出的那样,以军对加沙地带的袭击已造成超过6万人死亡。

人工智能制造的尸体

为这些软件的棺材打上的最后一颗道德钉子在于自动化流程本身——它将人类的监督降至最低。报告显示,空袭决策仅需20秒的人工审核。因此,在未经充分人工审核的情况下,这些软件进行的错误且不准确的预测所导致的数字偏差仍然存在。

在这里,一个迫切的问题是:实施存在所有这些缺陷和错误的人工智能软件的意义何在?当然,我们假设这些缺陷和错误是“无意错误”,这包括自动化和人工智能专家们熟知的禁忌——从泛化错误到使用小数据样本且未验证结果(训练错误)而偏向特定模式,再到自动化错误。

此外,谁应该为这些错误负责?是被这些软件害死的无辜平民,还是这些设计初衷就是为了实施种族灭绝并因此忽视上述所有问题的软件?或许有些专家会得出结论:加沙发生的事情只是这些软件程序的一次训练,之后它们会作为一种旨在打击无辜者的人工智能而被推销给全世界!而这也将是世界上第一起为了模拟和纠正人工智能而制造的平民杀戮行动。

来源: 半岛电视台 + 电子网站