来自联邦科学与工业研究组织(CSIRO)数据61、澳大利亚网络安全合作研究中心(CSCRC)的研究,韩国成均馆大学(Sungkyunkwan University)也强调了某些触发器是智能安防摄像头的漏洞。
研究人员测试了如何使用简单的物体,例如一件特定颜色的衣服,就可以轻松地利用、绕过和渗透YOLO(一种受欢迎的物体探测相机)。
在第一轮测试中,研究人员用一个红色的小豆豆来说明它是如何被用来作为“触发器”来让一个受试者数字消失的。研究人员证明,一开始约洛相机能够探测到目标,但穿上红色的小帽子,他们就没被发现。
一个类似的演示,两个人穿着同一件t恤,但颜色不同,结果相似。
阅读更多:企业在人工智能领域失败的真正原因解释说,感兴趣的是了解人工智能算法的潜在缺点。
“人工智能的问题是,尽管人工智能的有效性和识别能力如此之多,但它本质上是敌对的,”他告诉ZDNet。
“如果你正在编写一个简单的计算机程序,并将其传递给你旁边的人,他们可以针对该代码运行许多功能测试和集成测试,并确切了解该代码的行为。
“但是使用人工智能……你只有机会在实用性方面测试这个模型。例如,一个被设计用来识别对象或对电子邮件进行分类的模型——好的或坏的电子邮件——你的测试范围受到限制,因为它是一个黑匣子。”
他说,如果人工智能模型没有经过训练来检测所有不同的场景,那么它就会带来安全风险。
“如果你在监控中,使用智能摄像头,并且你想让警报响起来,那么(戴着红帽子的)那个人可能会在不被识别的情况下进出,”Abuadbba说。
他继续说,通过承认可能存在漏洞,这将警告用户考虑用于训练智能摄像头的数据。
“如果你是一个敏感的组织,你需要生成自己信任的数据集,并在监督下对其进行培训……另一个选择是从你采用这些模型的地方进行选择,”Abuadba说。
另请参见:人工智能与伦理:需要进行的辩论https://www.zdnet.com/article/twitter-vows-to-fix-bias-image-cropping-issue/“>算法缺陷最近在Twitter用户发现这个社交媒体平台的图像预览裁剪工具会自动偏爱白人而不是黑人。一位名叫科林·马德兰的白人用户,他在Twitter上强调视频会议软件Zoom中的种族偏见后发现了这一点。
当Madland发布了一张他和他的黑人同事的照片,因为算法无法识别他的脸,在使用虚拟背景进行缩放时,他们的头被抹掉了,Twitter自动裁剪了图片,只显示了Madland。作为回应,Twitter承诺将继续测试其算法的偏差。
“虽然我们迄今的分析没有显示种族或性别偏见,但我们认识到,我们自动裁剪照片的方式意味着存在潜在的危害,“Twitter首席技术官ParagAgrawal和CDO Dantley Davis在https://blog.twitter.com/officer/enüus/topics/product/2020/transparency-image-cropping.html“target=”\u blank“rel=”noopener noreferrer“data component=”externalLink“>博客文章。
“当我们第一次设计和制造这个产品时,我们应该更好地预测这种可能性。
“我们目前正在进行额外的分析,以进一步严格我们的测试,并致力于分享我们的发现,并且正在探索将我们的分析开源的方法,以便其他人能够帮助我们保持责任感https://www.zdnet.com/article/article/artificial-intelligence-will-be-used-to-power-cyber-attacks-warn-security-experts/“>人工智能将被用来发动网络攻击,警告安全专家
情报机构需要使用人工智能来帮助应对来自犯罪分子和敌对国家的威胁,他们将试图利用人工智能来加强自己的攻击。
备受争议的面部识别技术公司Clearview AI inks与ICE交易
美国移民和海关部门在Clearview许可证上花费了22.4万美元。
微软:我们的人工智能可以从开发者的错误报告标题中发现安全缺陷
微软的机器学习模型可以在处理错误报告时加快分类过程。
‘Booyaaa’:澳大利亚联邦警察使用Clearview AI的详细信息
一名工作人员这名成员在自己的个人手机上使用了该应用程序,而另一名成员则吹嘘Clearview人工智能工具成功地匹配了一张照片。
Acer推出其首款搭载高通公司Snapdragon 7c计算平台的Chromebook,
注册即表示您同意
2023-03-22 10:04:21