在线ai软件人工智能发展的天然“软肋”或让AI“精神错乱”

人民网北京4月9日电(赵竹青)大规模的网络伤害曾经推动了杀毒软件的问世,应用逐渐广泛的人工智能,又该怎么应对“病毒”的攻击?记者从清华人工智能研究院获悉,该院RealAI(瑞莱智慧)创业团队8日启用针对算法模型原本安全的监测系统,意味着人工智能也是了“杀毒软件”。

人工智能发展的天然“软肋”

成为推动新一轮技术革命和行业改革的重塑性科技,人工智能目前正在渗透到了社会生活的方方面面。随着数据泄漏、算法偏见、算法漏洞等一系列难题的暴露,其安全需求和伦理影响也随之显现,给国家经济和社会安全带来很多风险和挑战。

RealAI团队CEO田天介绍在线ai软件,现阶段,由于人工智能科技不成熟并且恶意应用所造成的安全风险,本质上属于人工智能的“技术难题”,比如模型缺陷、算法不可解释性、数据强依赖性等,是限制人工智能发展最显著的“软肋”。

算法突破,是人工智能市场发展的基石和热点。中国信息通信研究院2018年公布的《人工智能安全白皮书》指出,“算法安全”是人工智能六大安全风险之一。同时,白皮书认为“对抗样本攻击迫使算法识别发生失误漏判”这一算法模型缺陷是算法安全的重要风险项。

“病毒”入侵或让AI“精神错乱”

“对抗样本本身是机器学习建模的一个有趣现象。”田天解释,它是借助在源数据上提高一些微妙改变,人类嗅觉很难分辨,但足以让机器学习模型接受并作出错误的分类决定,从而把一座山峰识别为一只狗,或者把C罗识别为梅西。

也就是说,这些对抗样本的伤害,会像病毒一样入侵人工智能平台的“意识”中在线ai软件,让它发生“精神错乱”而难以工作。

随着人工智能的普及,这些实例不断地在现实中再现:在地面上粘贴对抗样本贴纸模仿合并条带,误导自动驾驶车辆拐进逆行车道;佩戴对抗样本生成的眼镜,轻易破解电脑面部解锁;背部张贴对抗样本贴纸即可实现隐身……

特别是在人脸辨识、自动驾驶等特定领域,这种“AI病毒”可能导致无法挽救的人员和财产损失。

“杀毒软件”提升AI系统可靠性

“目前,人工智能安全而是一个新兴领域,存在较高的科技壁垒。”田天告诉记者,随着攻防相互的演进,对抗样本等防御方式更加趋于复杂,尤其在开源社区、工具包的加持下,高级复杂防御方式迅速下降,但是相关防御方式的更新却无法跟上。

成为清华人学人工智能研究院的官方团队,RealAI曾正式提出多项攻防算法,被主流开源工具FoolBox等收录为标准,与清华联合组成的战队曾获得多项人工智能国际竞赛冠军。

团队研发的RealSafe人工智能安全系统,能够提供从测评到防御的完整解决方案,快速改善对抗样本攻击骚扰。相较于现在常用的开源软件必须自行推进、编写代码,该系统支持零编码在线评测,用户只需提供相应的数据就能在线完成检测,极大增加了算法评测的科技难度。同时,平台运用可量化的方式对安全性进行检测,评分越高则模型安全性越高。针对测试出来的漏洞,平台还可提供适合的攻击方案,提升模型安全性。

“推出安全评估系统是避免风险的模式之一,未来还必须联合各界力量一同推进人工智能安全相关的国家标准、行业标准、联盟标准的制订,为人工智能产品安全检测评测提供统一参考。”田天说。

添加微信

转载原创文章请注明,转载自设计培训_平面设计_品牌设计_美工学习_视觉设计_小白UI设计师,原文地址:https://www.zfbbb.com/?id=4881

上一篇:在线ai软件 2019年最值得关注的25个人工智能趋势(上)

下一篇:ai软件字体下载简单来说,开启百度输入法的AI造字功能(组图)