Palantir英国负责人表示,如何在战争中使用AI瞄准取决于军方=====================================================================================8 minutes agoShareSaveAdd as preferred on GoogleMarc Cieslak,AI记者及Matt Murphy,BBC Verify Palantir的路易斯·莫斯利(Louis Mosley)表示,军方负责AI系统的使用方式**科技巨头Palantir已回击外界担忧,即军方使用其AI平台可能引发不可预见的风险。在接受BBC的独家采访时,Palantir坚称,技术的使用方式由其军事客户负责。**这是因为专家已对在战时使用Palantir基于AI的防务平台——Maven Smart System——表示担忧,并提到它据称被用于美国对伊朗的袭击。分析人士警告称,军方使用该平台(它帮助人员策划打击行动)几乎没有时间对其输出进行“有意义的验证”,可能导致击中错误目标。但Palantir的英国及欧洲负责人路易斯·莫斯利在一场范围广泛的采访中告诉BBC:尽管像Maven这样的AI平台对美国管理伊朗战争具有“至关重要”的作用,但关于其输出如何被使用的责任必须始终“归于军队组织本身”。“总会有人在环路中(human in the loop),因此总会有人作出最终决定。这就是当前的设置。”Maven Smart System由五角大楼于2017年推出,旨在通过汇集大量数据来加快军事瞄准决策,包括一系列情报,以及卫星和无人机图像。该系统会分析这些数据,然后提供针对性打击的建议。它还可以根据人员与军事装备的可用情况(例如飞机)来建议使用的武力程度。但此类工具在战争中的使用受到了越来越多的审查。2月,五角大楼宣布,它将在该公司拒绝允许其AI用于自主武器和监视之后,逐步停止使用Anthropic的Claude AI系统——该系统有助于为Maven提供动力。Palantir表示,可用替代方案来取代它。自2月与伊朗的战争开始以来,据报道,美国已使用Maven来策划覆盖整个国家的打击行动。Palantir的Maven Smart System演示画面在BBC就Maven可能提出不正确目标(这可能包括平民)的风险进行追问时,莫斯利坚持认为,该平台仅用于作为引导,以加快军方人员的决策过程,并且不应被视为自动化的瞄准系统。“你可以把它当作一种支撑工具,”莫斯利说。“它让他们把此前不得不逐一手工处理的大量信息进行综合。”然而,当BBC就时间紧迫的指挥官可能会下令让其官员将Maven的输出当作“盖章确认”来对待的风险向莫斯利发难时,他将问题交由各个独立的军方机构处理。“这真的是留给我们的军事客户的问题。他们是决定政策框架的那一方,而政策框架决定是谁能够做出什么样的决定,”他说。“这不是我们的角色。”自2月28日起,美国已对伊朗发动超过11,000次打击行动,其中许多据称是由Maven识别出来的。美国中东地区军方负责人、海军陆战队少将(Adm Brad Cooper)称赞AI系统帮助军官“在几秒内筛选海量数据,让我们的领导者能够穿透噪音,比敌人更快作出更明智的决策”。AI公司Anthropic寻求武器专家以阻止用户“滥用”------------------------------------------------------------------OpenAI在遭遇对抗后调整与美国军方的协议---------------------------------------------------特朗普要求政府停止在AI使用的战斗中使用Anthropic---------------------------------------------------------------------但也有人担心,AI参与任务策划会带来重大风险。伦敦玛丽女王大学(Queen Mary University of London)的Elke Schwarz教授说:“对速度和规模的优先排序,以及随后使用武力的做法,会让对目标进行有意义的核查所剩时间极其有限,以确保它们不会意外地包含平民目标。”“如果存在杀人的风险,而你又把大量关键思考交给会替你处理这些事情的软件,那么你就会变得依赖于该软件,”她补充道。“这是一场向最低处竞赛。”在最近几周,五角大楼官员面临问题:类似Maven的AI工具是否被用于识别伊朗米纳卜(Minab)小镇上一所学校遭到致命袭击中的目标。据伊朗官员称,该次袭击在战争爆发的第一天造成168人死亡,其中包括大约110名儿童。在国会中,数名资深民主党人呼吁对像Maven这样的AI平台进行更严格的审查。众议员Sara Jacobs——众议院军事委员会(House Armed Services Committee)成员——呼吁就AI系统何时、如何被使用制定并严格执行清晰的规则与规定。“AI工具并不可能100%可靠——它们可能以微妙的方式失败,但操作人员仍会继续过度信任它们,”她上个月对NBC News表示。“我们有责任对军方使用AI强制执行严格的防护栏,并确保在每一次使用致命武力的决策中都有人在环路中,因为搞错所带来的代价可能对平民和执行这些任务的军人造成灾难性后果。”但莫斯利反驳了这样的说法:他公司平台的速度正在推动五角大楼仓促决策,并可能制造危险局面。相反,他认为,指挥官现在采取行动的速度是Maven所带来的“效率提升的结果”。五角大楼援引“行动安全”(operational security),当BBC上前询问有关像Maven这样的AI系统未来将如何使用,以及若出现问题将由谁承担责任时,该机构拒绝置评。不过,美国官员似乎正继续推进将Maven进一步整合进其系统的计划。上周,路透社报道称,五角大楼已将Maven指定为“官方存档项目(an official program of record)”——将其确立为一种技术,未来长期纳入整个美国军方体系。在路透社获得的一封信件中,代理国防部长Steve Feinberg表示,该平台将为指挥官提供“最新工具,以便在所有领域识别、威慑并压制我们的对手”。_额外报道:Jemimah Herd_人工智能伊朗战争
Palantir 英国负责人表示,军事部门应决定如何在战争中使用 AI 定向技术
Palantir英国负责人表示,如何在战争中使用AI瞄准取决于军方
8 minutes ago
ShareSave
Add as preferred on Google
Marc Cieslak,AI记者及
Matt Murphy,BBC Verify
Palantir的路易斯·莫斯利(Louis Mosley)表示,军方负责AI系统的使用方式
科技巨头Palantir已回击外界担忧,即军方使用其AI平台可能引发不可预见的风险。在接受BBC的独家采访时,Palantir坚称,技术的使用方式由其军事客户负责。
这是因为专家已对在战时使用Palantir基于AI的防务平台——Maven Smart System——表示担忧,并提到它据称被用于美国对伊朗的袭击。
分析人士警告称,军方使用该平台(它帮助人员策划打击行动)几乎没有时间对其输出进行“有意义的验证”,可能导致击中错误目标。
但Palantir的英国及欧洲负责人路易斯·莫斯利在一场范围广泛的采访中告诉BBC:尽管像Maven这样的AI平台对美国管理伊朗战争具有“至关重要”的作用,但关于其输出如何被使用的责任必须始终“归于军队组织本身”。
“总会有人在环路中(human in the loop),因此总会有人作出最终决定。这就是当前的设置。”
Maven Smart System由五角大楼于2017年推出,旨在通过汇集大量数据来加快军事瞄准决策,包括一系列情报,以及卫星和无人机图像。
该系统会分析这些数据,然后提供针对性打击的建议。它还可以根据人员与军事装备的可用情况(例如飞机)来建议使用的武力程度。
但此类工具在战争中的使用受到了越来越多的审查。2月,五角大楼宣布,它将在该公司拒绝允许其AI用于自主武器和监视之后,逐步停止使用Anthropic的Claude AI系统——该系统有助于为Maven提供动力。Palantir表示,可用替代方案来取代它。
自2月与伊朗的战争开始以来,据报道,美国已使用Maven来策划覆盖整个国家的打击行动。
Palantir的Maven Smart System演示画面
在BBC就Maven可能提出不正确目标(这可能包括平民)的风险进行追问时,莫斯利坚持认为,该平台仅用于作为引导,以加快军方人员的决策过程,并且不应被视为自动化的瞄准系统。
“你可以把它当作一种支撑工具,”莫斯利说。“它让他们把此前不得不逐一手工处理的大量信息进行综合。”
然而,当BBC就时间紧迫的指挥官可能会下令让其官员将Maven的输出当作“盖章确认”来对待的风险向莫斯利发难时,他将问题交由各个独立的军方机构处理。
“这真的是留给我们的军事客户的问题。他们是决定政策框架的那一方,而政策框架决定是谁能够做出什么样的决定,”他说。“这不是我们的角色。”
自2月28日起,美国已对伊朗发动超过11,000次打击行动,其中许多据称是由Maven识别出来的。
美国中东地区军方负责人、海军陆战队少将(Adm Brad Cooper)称赞AI系统帮助军官“在几秒内筛选海量数据,让我们的领导者能够穿透噪音,比敌人更快作出更明智的决策”。
AI公司Anthropic寻求武器专家以阻止用户“滥用”
OpenAI在遭遇对抗后调整与美国军方的协议
特朗普要求政府停止在AI使用的战斗中使用Anthropic
但也有人担心,AI参与任务策划会带来重大风险。
伦敦玛丽女王大学(Queen Mary University of London)的Elke Schwarz教授说:“对速度和规模的优先排序,以及随后使用武力的做法,会让对目标进行有意义的核查所剩时间极其有限,以确保它们不会意外地包含平民目标。”
“如果存在杀人的风险,而你又把大量关键思考交给会替你处理这些事情的软件,那么你就会变得依赖于该软件,”她补充道。“这是一场向最低处竞赛。”
在最近几周,五角大楼官员面临问题:类似Maven的AI工具是否被用于识别伊朗米纳卜(Minab)小镇上一所学校遭到致命袭击中的目标。据伊朗官员称,该次袭击在战争爆发的第一天造成168人死亡,其中包括大约110名儿童。
在国会中,数名资深民主党人呼吁对像Maven这样的AI平台进行更严格的审查。众议员Sara Jacobs——众议院军事委员会(House Armed Services Committee)成员——呼吁就AI系统何时、如何被使用制定并严格执行清晰的规则与规定。
“AI工具并不可能100%可靠——它们可能以微妙的方式失败,但操作人员仍会继续过度信任它们,”她上个月对NBC News表示。
“我们有责任对军方使用AI强制执行严格的防护栏,并确保在每一次使用致命武力的决策中都有人在环路中,因为搞错所带来的代价可能对平民和执行这些任务的军人造成灾难性后果。”
但莫斯利反驳了这样的说法:他公司平台的速度正在推动五角大楼仓促决策,并可能制造危险局面。相反,他认为,指挥官现在采取行动的速度是Maven所带来的“效率提升的结果”。
五角大楼援引“行动安全”(operational security),当BBC上前询问有关像Maven这样的AI系统未来将如何使用,以及若出现问题将由谁承担责任时,该机构拒绝置评。
不过,美国官员似乎正继续推进将Maven进一步整合进其系统的计划。
上周,路透社报道称,五角大楼已将Maven指定为“官方存档项目(an official program of record)”——将其确立为一种技术,未来长期纳入整个美国军方体系。
在路透社获得的一封信件中,代理国防部长Steve Feinberg表示,该平台将为指挥官提供“最新工具,以便在所有领域识别、威慑并压制我们的对手”。
额外报道:Jemimah Herd
人工智能
伊朗战争