产品和服务

AI 验证库

确保 AI 模型的稳健性和可靠性

随着 AI 模型成为工程系统(特别是安全关键型应用)的一部分,对其可靠性和稳健性的确保已变得至关重要。AI Verification Library for Deep Learning Toolbox 让您能够严格评估和测试 AI 模型。

使用 AI 验证库,您可以:

  • 验证 AI 模型的属性,例如面对对抗样本时的稳健性
  • 估计 AI 模型预测对输入扰动的敏感程度
  • 创建一个可将数据分为分布内和分布外数据以进行运行时监控的分布判别器
  • 部署运行时监控系统以监控 AI 模型性能
  • 通过案例研究来验证机载深度学习系统
示意图:桌面计算机通过 MATLAB 使用量子计算。

什么是 AI 验证?

传统的验证和确认 (V&V) 工作流,如 V 形工作流,对于 AI 模型往往难以达到预期效果。AI 验证涉及严格的测试,以确保预期行为并避免意外行为。像 W 形开发过程这样的改进方法可以处理对抗输入、分布外检测、不确定性估计和网络属性验证,从而提高稳健性和安全性。

确认机载深度学习系统(案例研究)

探索案例研究,以确认机载深度学习系统符合航空行业标准,如 DO-178C、ARP4754A 以及将来的 EASA 和 FAA 规范。此案例研究全面介绍了完全符合深度学习系统行业标准和规范所需的步骤。

针对分类验证深度神经网络的稳健性

使用形式化方法增强您的网络对对抗样本(经微妙改变意图误导网络的输入)的稳健性。这种方法支持测试输入的无限集合,证明存在扰动的情况下预测的一致性并指导训练增强,从而使您能够提高网络的可靠性和准确度。

估计回归的深度神经网络的输出边界

使用形式化方法,在给定输入范围的情况下估计网络的输出上界。此过程使您能够深入了解在给定输入扰动下网络的潜在输出,确保其在控制系统、信号处理等场景中的可靠性能。

构建带有运行时监控安全的深度学习系统

将运行时监控与分布外检测相结合,构建安全的深度学习系统。持续评估传入数据是否与训练数据一致可以帮助您决定是信任网络输出还是将其重定向以进行安全处理,从而增强系统的安全性和可靠性。

使用可解释性方法

通过使用解释方法理解您的网络的决策过程。利用检测器随机输入采样解释 (D-RISE) 算法等方法来计算目标检测器的显著图,并可视化输入数据中对网络预测影响最大的特定区域。

集成有约束深度学习

有约束深度学习是一种通过将特定领域的约束纳入学习过程来训练深度神经网络的高级方法。通过将这些约束集成到神经网络的构造和训练中,您可以在确定性非常重要的安全关键场景中保证实现理想行为。