此外,可以估计“理智的”指挥官是否会使用更少的无人机、弹药、炸弹或其他战争手段,通过空袭摧毁相关军事目标。然后,可以利用各种来源收集有关袭击者是否成功摧毁该地区任何军事目标的信息。随后,可以讨论在当时的情况下,袭击是否可能不成比例。如果袭击者多次使用超过必要数量的武器摧毁目标,或在该地区没有军事目标的地区发动多次袭击,或发动多次不成比例的袭击,那么这两个因素中的任何一个都可以表明军事指挥官发动袭击的目的是恐吓平民。
将人工智能作为一种工具,而不是传统分析的替代品。首先,人工智能基于对过去案件信息的分析而产生输出,而过去案件被看作与当前事件相似(第 24 页;107 页),而不是基于对特定事件信息的分析(第 105 页)。这意味着人们应该承认人工智能的局限性,谨慎使用人工智能的输出,尤其是当人们使用这些输出作为指控某人犯有战争罪的依据时。鉴于可以将大量战场场景输入人工智能,使用合成数据,并根据天气等变量对人工智能进行编程以调整其预测,人工智能的输出可以让 奥地利资源 国际社会注意到需要进一步调查。合成数据对人工智能进行编程的优势在于,它可以生成特定场景的许多可能排列,从该地区有多少平民到不同天气条件的影响。
其次,人工智能的输出结果应始终被视为近似值,并应补充人类的传统分析。比例原则的应用涉及评估标准的应用和自由裁量权的行使(第 298 页)。正如前南问题国际法庭检察官承认的那样,虽然指挥官在“许多情况下”会就“合理的指挥官”在应用比例原则的过程中如何行使自由裁量权达成一致,但“不同教义背景、不同程度的战斗经验或国家军事历史”的指挥官可能会在“接近的情况下”产生分歧(第 50 段)。重要的是,在使用人工智能时,不要通过赋予人的生命数学价值来改变国际人道法所要求的分析性质(第 268-269 页)。相反,人类可以使用人工智能对军事行动可能伤害多少人的评估来补充传统分析。虽然需要进行更多的研究来创建这里描述的人工智能系统,但目前的讨论表明,个人可以使用人工智能作为工具,帮助他们分析需要收集哪些进一步的信息来确定军事行动是否符合国际人道法。