当前位置:首页 > 情感 > 正文

巴以冲突中微软谷歌向以军提供AI支持,AI监管迫在眉睫

  • 情感
  • 2025-01-24 20:22:08
  • 14

近期相关文件显示,巴以冲突爆发后,以色列军方对数据和情报的存储分析需求激增,微软、亚马逊、谷歌等科技公司则一直为其提供先进的云技术和人工智能(AI)系统支持。

新华社去年12月30日曾援引《华盛顿邮报》报道称,以色列国防军依赖人工智能系统持续推进加沙地带军事行动,指出以军情报部门使用人工智能工具显著加速军事决策,导致更多巴勒斯坦平民伤亡。

当地时间2025年1月21日,加沙城,城市建筑沦为一片废墟和灰烬。视觉中国 图

去年夏天,以色列国防军一名高级官员匿名接受《华盛顿邮报》采访时表示,以军方在新型云技术、硬件和其他后端计算系统方面投入巨资,而且通常是与美国公司合作。此次英国与《+972杂志》《Local Call》等中东媒体合作的调查显示,以色列官员曾透露,与上述科技公司的合作有助于作战计划的推进。

AI等技术被投入到战争引发对科技伦理的探讨。一方面,在情报收集和分析层面,AI系统能够快速处理大量的情报数据,包括卫星图像、无人机拍摄的视频以及通信截获等信息,帮助减少情报人员的压力;但另一方面,AI在战争环境中的应用缺乏审查,或加剧了平民伤亡。

新华社援引以色列人权组织“打破沉默”的话称,以军在本轮冲突中为杀死一名哈马斯低级别成员,可以冒空袭导致15名平民伤亡的风险。以军利用AI作战表明,需要有新的国际道德准则和框架加以约束。

微软、谷歌“参战”

英国《卫报》1月23日报道称,巴以冲突爆发后,微软公司的Azure云技术为以军提供了计算和存储服务,双方达成了至少1000万美元(约合人民币7242万元)的协议。在进攻加沙地带期间,微软向以色列8200部队和负责收集、分析视觉情报的9900部队提供云服务支持。此外,以军还使用Azure的AI产品进行翻译和语音转换文字等。

以军还与另一科技巨头谷歌联系密切。《华盛顿邮报》1月21日在获得的一份报告文件中发现,以色列国防部希望扩大使用谷歌的Vertex服务,该服务可以让客户把算法应用于自己的数据。

当地时间2025年1月19日,以色列-加沙边界,一架以色列军用无人机在加沙北部贝特哈努镇上空飞行。视觉中国 图

相关文件显示,在2023年10月7日哈马斯袭击以色列后的几周内,谷歌云计算部门的一名员工向以国防部提出了更多访问该公司人工智能技术的请求。该员工曾警告称,若谷歌不迅速提供更多访问权限,以军会求助于其竞争对手亚马逊。

亚马逊及谷歌公司曾与以色列在2021年共同签订了一份价值为12 亿美元的监控系统开发项目——“云雨计划”(Project Nimbus)。谷歌云(Google Cloud)和亚马逊网络服务 (AWS) 为以色列国防军以及以色列各政府机构提供尖端的云计算和人工智能能力,进行包括面部识别、情绪分析和自动图像在内的技术服务。

另外,2024年11月,还有一名谷歌员工要求让以军使用其AI模型“双子座”(Gemini),该模型能处理视频、音频、文本等数据。以军则希望有自己的AI系统,处理文件和音频等。

《卫报》根据以色列前8200部队负责人萨里埃尔(Yossi Sariel)的分析称,以军对云计算的需求,也将推动与微软等公司合作,“合作方式类似于(以军)与洛克希德·马丁等武器制造商的关系”。

缺乏AI监管或恶化冲突

据《卫报》报道,以军与科技巨头之间的商业关系正在美国受到审查,科技工作者对此表示抗议,即担心自己制造、维护的产品推动了巴以冲突。

去年谷歌曾累计解雇了约50名抗议“云雨计划”的公司员工。谷歌对外声称,该项目“并非针对与武器、情报服务相关的高度敏感、机密或军事工作”。批评人士称这些技术可以用作武器,以加速针对巴勒斯坦人的监视行动。2024年初,以色列国家网络理事会(INCD)总干事波特诺伊(Gaby Portnoy)在一次会议上表示,“云雨项目”直接有助于作战应用。

《华盛顿邮报》在报道中指出,谷歌制定了人工智能政策,承诺不会将技术用于危害人类的用途。公司会审查其产品和政策是否符合《联合国世界人权宣言》等国际标准,并邀请员工提出对公司工作的任何疑虑。但据一位不愿透露姓名的谷歌员工透露,去年夏天,超过100名员工给公司人权团队成员发送电子邮件,要求他们审查公司与以色列军方的合作,但没有得到回应。

新华社此前报道称,在AI的协助下,以军打击目标的数量和速度快速提升。但AI在战争环境中的应用缺乏审查,不适用于关乎生死的战争等环境。若AI做出军事决策,难以确保其准确度。

卡内基国际和平基金会在一篇文章中指出,AI正帮助以军减少在冲突中的人力成本,推进暴力行为、剥夺巴勒斯坦人的权利。文章进一步呼吁,鉴于战争中复杂的伦理问题,不能在缺乏针对AI的国际道德准则和法律框架的前提下,让单一国家自行监管新技术和维护人权。

随着AI被用于战争,人类对人工智能系统的监管和问责机制迫在眉睫。新美国安全中心智库(CNAS)执行副总裁、《无人之军:自主武器与战争的未来》一书作者沙雷(Paul Scharre)向《时代》杂志警告称:“技术的发展速度远远快于政策出台的速度。与不久的将来可能出现的系统相比,迄今我们看到的AI系统类型很可能相当温和。”

有话要说...