< 上一个 | 内容 | 下一个 >

5.5.1 设计适用不同场景的安全性度量

当前的神经网络模型多以性能表现作为度量,缺乏多样化的、适用于不同场景需求的安全性度量。伴随着算力的提升、数据规模的增


长以及网络结构的扩大,神经网络模型已经具备了足够强大的性能,阻碍模型应用到更广泛场景中的制约因素不再是性能,而是各个场景对模型安全性的需求。

模型安全性具有丰富的含义,包括鲁棒性、可解释性、公平性和隐私性等。在自动驾驶的场景中,模型的鲁棒性是至关重要的;在医疗场景中,可解释性和隐私性直接决定了模型是否能够得到医护人员的信赖;在招聘场景中,模型的公平性应当首先得到保证。在神经网络的未来发展中,应当在理论上建立适用于不同场景的安全性度量,从而为模型的结构设计及训练目标提供理论上的指导。