AI的高安全性应用与可靠性验证 —医学影像分析与可解释性
人工智能已展现出其在各种应用中的不俗表现。因此,我们一直希望将其用于高安全性的领域,例如医疗设备、汽车/自动驾驶等。虽然这些行业已经建立了确认和验证传统软件的流程,但通常不清楚如何验证AI模型的可靠性。
在本讲中,我们展示用于确认和验证 AI 模型的工作流程,以医疗影像处理分析的实例,展示神经网络内部工作原理的可解释性方法。介绍Deep Learning Toolbox™ Verification Library 如何验证网络的鲁棒性,并确定AI模型在推理时,遇到的数据是否与训练数据分布一致。通过全面测试 AI 模型的要求,可以确保 AI 模型适用于高安全性的应用。
出版年份: 2023 年 7 月 9 日