微软和非盈利研究机构MITRE联手加速了网络安全的下一章:保护基于机器学习的应用程序,并面临新的对抗性威胁。
这两个组织与学术机构和其他大型科技公司合作,如IBM已发布https://github.com/mitre/advmlthreatmatrix“target=”nu blank“rel=”noopener noreferrer nofollow“data component=”externalLink“>新的开源工具称为对抗性机器学习威胁矩阵。该框架旨在组织和分类针对机器学习系统的已知攻击技术,通知安全分析员,并向他们提供检测、响应和补救威胁的策略。
矩阵根据与威胁的各个方面相关的标准对攻击进行分类,比如执行和过滤,也包括初始访问和影响。为了策划这个框架,微软和MITRE的团队分析了现实世界中对现有应用程序进行的攻击,他们认为这些攻击对人工智能系统是有效的。
米克尔·罗德里格斯(Mikel Rodriguez)说:,他负责MITRE的决策科学研究项目。”相反,有了这个威胁矩阵,安全分析师将能够使用基于真实事件的威胁模型,这些事件通过机器学习来模拟对手的行为,“
随着人工智能系统越来越成为我们日常生活的基础,该工具似乎很及时。从金融到医疗保健,通过国防和关键基础设施,机器学习的应用在过去几年里成倍增长。但是MITRE的研究人员认为,在急切地加快新算法开发的同时,组织往往未能仔细检查其系统的安全性。
调查越来越多地指向多年来我们一直承诺无人驾驶汽车。为什么他们还没上路呢?