(资料图片)
(CWW)8月9日,在第十一届互联网安全大会(简称“ISC 2023”)上,中国工程院院士邬江兴发表了题为“动态异构冗余构造赋能AI应用系统内生安全实验”的演讲,引起了广泛的关注和讨论。
邬江兴教授首先指出,AI应用系统在各行各业都有分布,跟人类的社会生活息息相关,但是目前很多企业在使用AI应用系统时,面临着安全性无法保障的问题。他认为,AI应用系统的安全问题可以分为内生安全问题和非内生安全问题,其中内生安全问题又可以分为个性问题和共性问题。个性问题是指AI算法模型本身存在的黑盒特点、数据依赖性、不可逆性等导致的不可解释性、不可判定性、不可推论性等问题。共性问题是指AI应用系统软硬件环境中存在的漏洞、后门等常见的网络安全问题。
邬江兴教授进一步分析了当前网络安全理论与方法的天花板问题,即在面对未知的未知或已知的未知的情况下,传统的网络安全范式无法有效解决AI应用系统中存在的内生安全个性问题和共性问题。他提出了一个新的思路,即利用内生安全理论中的动态异构冗余(DHR)构造方法,赋能AI应用系统内生安全实验。他解释了DHR构造方法的原理和机制,即通过功能等价异构冗余环境发现差模或有感共模扰动,并进行评比或纠错,从而阻断和控制内生安全问题发展成为内生安全事件。
邬江兴教授还展示了在理论研究和工程实践方面取得的成果,包括对AI应用算法个性化问题的特异性分析、基于DHR构造方法的AI应用系统内生安全实验原理验证、紫金山实验室创办的首个网络安全实验厂等。他表示,将在今年四季度举办第六届国际精英挑战赛,并新设了AI应用系统安全赛道,这是世界上首次针对AI应用系统内生安全问题进行人机对抗的比赛。他呼吁更多的专家学者和企业界人士参与到AI应用系统内生安全研究和实践中来,共同推动AI时代的网络空间安全发展。