钛媒体7月27日消息,在钛媒体T-EDGE X全球AI峰会的“疫情之下的全球人工智能发展趋势”论坛上,国际人工智能联合会议主席、香港科技大学讲座教授杨强表示,AI与人的新三定律是隐私、安全与可解释性。要让人工智能在应用的过程中能够保护用户隐私,防止恶意或者非恶意的攻击,且AI模型可解释,要使用不同的方法。
杨强提到,在保护隐私上,可使用联邦学习技术,联邦学习是数据可用不可见的典型技术,指的是多方参与建立一个模型,每一方都提供它的模型和数据,这些多方的模型和数据合起来就形成一个全局模型。以往,我们产生的数据虽然多,但数据却被割裂为了一个个数据孤岛,数据拥有方为了保护隐私、保障数据安全,并不愿意将数据开放出来,联邦学习这种数据可用不可见的技术解决了人工智能当下数据源不足的困境。
另外,机器学习收到的模型攻击主要来自三个方面:训练下毒攻击,这种攻击会使AI模型受损;对抗测试样本,这种攻击会诱导模型误分类;隐私攻击,这种攻击的目标主要是数据隐私。针对这三个攻击,人工智能团队需要采取必要的防御措施。
最后,AI模型可解释上指的是在AI模型判断出错的时候,我们要能知道模型判断出错的原因,在这方面杨强建议可使用统一的加特征归因方法(SHAP)来处理该问题。