微软去年 根据 The Intercept 审查的内部演示材料,提议使用 OpenAI 非常流行的图像生成工具 DALL-E 来帮助国防部构建执行军事行动的软件。 这一消息是在 OpenAI 悄然结束对军事工作的禁令几个月后发布的。

微软的演示文稿标题为“利用 DoD 数据生成人工智能”,提供了五角大楼如何利用 OpenAI 机器学习工具的总体细分,包括非常流行的 ChatGPT 文本生成器和 DALL-E 图像创建器,用于处理从文档到文档等各种任务。分析机器维护。 (微软去年向这家方兴未艾的机器学习初创公司投资了 100 亿美元,这两项业务已经紧密地交织在一起。2 月份,The Intercept 和其他数字新闻媒体起诉微软和 OpenAI 在未经许可或未经授权的情况下使用其新闻报道。)

Microsoft 文档取自 2023 年 10 月美国太空军在洛杉矶主办的国防部“AI 素养”培训研讨会上提供的大量材料。 此次活动包括来自微软和 OpenAI 等机器学习公司的各种演讲,介绍他们为五角大楼提供的服务。

这些可公开访问的文件是在 Alethia Labs 的网站上找到的,Alethia Labs 是一家帮助联邦政府获取技术的非营利咨询公司,由记者 Jack Poulson 发现。 周三,波尔森发表了对演示材料的更广泛的调查。 Alethia Labs 与五角大楼密切合作,帮助其快速将人工智能工具集成到其武器库中,并自去年以来与五角大楼的主要人工智能办公室签订了合同。 该公司没有回应置评请求。

微软演示文稿的一页重点介绍了 OpenAI 的各种“常见”联邦用途,包括国防用途。 “高级计算机视觉训练”下的一个要点是:“战斗管理系统:使用 DALL-E 模型创建图像来训练战斗管理系统。” 顾名思义,战斗管理系统是一种指挥和控制软件套件,为军事领导人提供战斗场景的态势概览,使他们能够协调炮火、空袭目标识别和部队调动等工作。 计算机视觉训练的参考表明,DALL-E 产生的人造图像可以帮助五角大楼的计算机更好地“看到”战场上的情况,这对于寻找和消灭目标尤其有利。

微软在一份电子邮件声明中告诉 The Intercept,虽然它已向五角大楼建议使用 DALL-E 来训练其战场软件,但它尚未开始这样做。 “这是一个潜在用例的例子,是通过与客户就生成人工智能的可能性艺术进行对话而得知的。” 微软拒绝透露该言论出自该公司任何人之手,也没有解释为什么在其演示中“潜在”用例被标记为“常见”用途。

OpenAI 发言人 Liz Bourgeous 表示,OpenAI 没有参与微软的宣传活动,也没有向国防部出售任何工具。 “OpenAI 的政策禁止使用我们的工具来开发或使用武器、伤害他人或破坏财产,”她写道。 “我们没有参与这次演示,也没有与美国国防机构就其描述的假设用例进行对话。”

Bourgeous 补充道:“我们没有证据表明 OpenAI 模型已被用于此用途。 OpenAI 没有与国防机构合作来利用我们的 API 或 ChatGPT 来实现此类目的。”

在演示时,OpenAI 的政策似乎禁止 DALL-E 的军事用途。 微软告诉 The Intercept,如果五角大楼通过与微软签订的合同使用 DALL-E 或任何其他 OpenAI 工具,则将受到后者公司的使用政策的约束。 尽管如此,任何使用 OpenAI 技术来帮助五角大楼更有效地杀戮和摧毁的行为都对该公司来说是一个巨大的转变,该公司将其使命描述为开发能够造福全人类的以安全为重点的人工智能。

“不可能以一种不会(至少不会间接)造成平民伤害的方式构建战斗管理系统。”

牛津大学布拉瓦尼克政府学院的客座研究员、专注于技术伦理的布莱恩娜·罗森(Brianna Rosen)表示:“建立一个战斗管理系统,至少不会间接地造成平民伤害,这是不可能的。”

曾在奥巴马政府期间供职于国家安全委员会的罗森解释说,OpenAI 的技术可以很容易地用来帮助人们,也可以很容易地用来伤害人们,任何政府将其用于后者都是一种政治选择。 “除非像 OpenAI 这样的公司得到政府的书面保证,否则他们不会使用该技术来伤害平民——这可能仍然不具有法律约束力——我看不出公司可以以任何方式充满信心地声明该技术不会被滥用。”以具有动力效应的方式使用(或滥用)。”

演示文档 没有提供有关战场管理系统如何使用 DALL-E 的更多详细信息。 然而,提到训练这些系统表明 DALL-E 可以用于 为五角大楼提供所谓的合成训练数据:人工创建的场景与现实世界的图像非常相似。 例如,旨在检测地面敌方目标的军事软件可以显示 DALL-E 生成的大量着陆跑道或坦克纵队的虚假航拍图像,以便更好地识别现实世界中的此类目标。

即使抛开道德上的反对意见,这种方法的有效性也是值得商榷的。 “众所周知,每次对人工智能生成的内容进行进一步训练时,模型的准确性和准确处理数据的能力都会下降,”之前与 OpenAI 签约的机器学习安全工程师 Heidy Khlaaf 说。 “Dall-E 图像远不准确,即使根据战场管理系统的输入进行微调,也无法生成接近我们物理现实的图像。 这些生成图像模型甚至无法准确生成正确数量的肢体或手指,我们如何才能依赖它们在现实现场存在方面准确呢?”

在上个月接受战略与国际研究中心采访时,美国海军上尉 M. Xavier Lugo 设想了合成数据的军事应用,就像 DALL-E 可以生成的那样,这表明伪造的图像可用于训练无人机更好地观察和识别其下方的世界。

Lugo 是五角大楼生成式人工智能工作组的任务指挥官,也是国防部首席数字和人工智能办公室的成员,他被列为微软演示文档末尾的联系人。 演讲由微软员工尼希米·库恩斯(Nehemiah Kuhns)主讲,他是一位在太空军和空军工作的“技术专家”。

空军目前正在建设先进战斗管理系统,这是五角大楼耗资数十亿美元的联合全域指挥与控制项目的一部分,该项目旨在将整个美国军队联网,以扩大各部门之间的通信,以人工智能为动力数据分析,并最终提高杀伤能力。 通过该项目的 JADC2,五角大楼设想在不久的将来,空军无人机摄像头、海军军舰雷达、陆军坦克和地面海军陆战队都可以无缝交换有关敌人的数据,以便更好地摧毁敌人。

4 月 3 日,美国中央司令部透露,它已经开始在中东使用 JADC2 的要素。

国防部没有回答有关微软演示的具体问题,但发言人蒂姆·戈尔曼 (Tim Gorman) 告诉 The Intercept,“ [Chief Digital and Artificial Intelligence Office’s] 使命是加速数据、分析和人工智能在国防部的采用。 作为该使命的一部分,我们领导开展活动,对员工进行数据和人工智能素养教育,以及如何将现有和新兴商业技术应用于国防部任务领域。”

虽然微软有 OpenAI 长期以来从国防合同中收获了数十亿美元,但最近才承认将开始与国防部合作。 针对 The Intercept 一月份关于 OpenAI 军工大转变的报道,该公司发言人 Niko Felix 表示,即使在宽松的语言下,“我们的政策也不允许我们的工具被用来伤害人民、开发武器、进行通信监视、或伤害他人或毁坏财产。”

“重点是你正在为战争准备做出贡献。”

五角大楼使用 OpenAI 软件是否会造成伤害可能取决于这些技术如何工作的字面意思,类似于帮助制造枪支或训练射手的公司不负责瞄准或扣动扳机的论点。 “他们可能会在使用之间穿针引线 [generative AI] 兰卡斯特大学科学与技术人类学名誉教授露西·苏克曼(Lucy Suchman)说: “但在我看来,这是一个虚假的区别,因为关键是你正在为战争准备做出贡献。”

与 OpenAI 不同的是,微软在其“负责任的人工智能”文件中几乎没有假装放弃伤害,并公开提倡在军队的“杀伤链”中使用其机器学习工具。

在政策转变后,OpenAI 也很快向公众和商业媒体强调,其与军方的合作是防御性、和平性质的。 在 1 月份达沃斯接受 The Intercept 报道采访时,OpenAI 全球事务副总裁 Anna Makanju 向小组与会者保证,该公司的军事工作重点是网络安全计划和退伍军人自杀预防等应用,并且该公司的开创性机器学习工具仍然是禁止造成伤害或破坏。

然而,为战斗管理系统的开发做出贡献将使 OpenAI 的军事工作更加接近战争本身。 机器学习安全工程师 Khlaaf 表示,虽然 OpenAI 声称如果其软件不直接操作武器系统,那么避免直接伤害在技术上可能是正确的,但它“在其他系统中的使用,例如军事行动规划或战场评估”最终将影响“部署武器或执行任务的地方。”

事实上,很难想象一场战斗的主要目的不是造成人身伤害和财产损失。 例如,三月份的一份空军新闻稿将最近的一次战斗管理系统演习描述为“以数据速度提供杀伤力”。

人工智能素养研讨会系列的其他材料明确表明,“伤害”才是最终的重点。 微软前一天的欢迎演讲中的一张幻灯片提出了这样一个问题:“我们为什么要关心?” 答案是:“我们必须杀死坏人。” 为了认可研讨会的“素养”方面,幻灯片补充道,“我们需要知道我们在谈论什么……但我们现在还不知道。”

Source: theintercept.com



Leave a Reply