马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要 登录 才可以下载或查看,没有帐号?注册
x
当人工智能模型本身存在缺陷被攻击时,那会是一种什么情形?可以想象一下:一条人潮涌动的大街上,有一个十字路口,一辆无人驾驶车驶了过来,禁止通行标识灯亮了,但因攻击者在灯上加了噪音,智能车将其识别为允许通行标识灯,继续高速通行,那后果不堪设想。
随着人工智能的大规模应用,安全会成为其发展的最大挑战。近日,阿里安全、阿里云天池平台联合人工智能领域国际顶级会议IJCAI(全称:International Joint Conference on Artificial Intelligence),发起人工智能对抗算法竞赛,探索对抗攻击时,如何解决AI模型的安全性问题。目前,赛题和日程已在天池平台公布。 阿里安全图灵实验室高级专家华棠介绍,这次比赛主要针对图像分类,包括模型攻击与模型防御,阿里公开110个类目,共计11万张左右图片,供选手使用。参赛选手可以作为攻击方,对图片进行轻微扰动生成对抗样本,使模型识别错误,或识别成指定的错误类别;也可以作为防御方,构建一个更加鲁棒的模型,准确识别对抗样本。 据了解,为强调面向真实场景,这次竞赛采用的是实际场景的图片识别任务进行攻防对抗。除真实数据外,还包括对计算量的严格限制,以及对扰动噪音的限制,这更能还原真实的安全与黑灰产的攻防。 对抗样本攻击是近几年学界与工业界才关注并热议的话题。在国际知名顶会NIPS2017年和2018年会议上,谷歌大脑曾连续举办对抗样本攻防竞赛,普及这一课题。不过,与阿里联合IJCAI举办的这次竞赛不同的是,他们利用的样本集均来自学术数据集ImageNet。 “未来的安全能力一定是建立在智能与算法基础之上,我们希望提供真实的、对抗的场景,建立前沿研究和具体业务之间的桥梁,进而反哺和促进整个人工智能的发展。”阿里安全图灵实验室负责人、资深专家薛晖说,这也是阿里首次提出安全AI概念的初衷。 通过大赛发掘安全AI人才也是预期目标之一。据统计,每年国内安全人才缺口在几十万人,且在不断扩大,同时掌握安全和AI技术的人才更是少之又少。薛晖说,伴随AI、IOT的广泛应用,人工智能时代安全AI的研究和应用将会是一片蓝海,希望通过竞赛鼓励更多人共同研究安全AI。 据悉,经过初赛、复赛和答辩,排名前三甲的队伍,除获得一千至五千美元不等的奖金外,还会被邀请参加今年8月在澳门举办的IJCAI会议。包括清华大学朱军教授、中国科学技术大学张卫明教授、浙江大学纪守领研究员、阿里达摩院高级研究员华先胜等在内的AI安全领域专家担任竞赛的评审。 值得一提的是,朱军等指导的清华大学团队曾在NIPS2017对抗样本攻防竞赛中,战胜多家世界著名高校的团队,在三项比赛中全部夺冠;纪守领所在的NESA Lab提出了一种新型的对抗性验证码,在保持用户体验的同时,能防范来自打码平台等黑灰产的破解。 公开信息显示,IJCAI是人工智能领域最重要的国际顶级学术会议,被中国计算机学会推荐为计算机学科领域A类国际会议,从1969年开始每两年举办一次,自2016年起改为每年一次。 赛程介绍: 报名:即日起 - 2019年4月20日 初赛:2019年3月4日 - 2019年4月29日 复赛:2019年5月7日 - 2019年5月31日 总决赛:2019年8月 奖金激励: 大赛分为3个赛道,各赛道将评选出冠军、亚军、季军各1支队伍,特别奖2支队伍。 冠军:1支队伍,USD 5,000
亚军:1支队伍,USD 2,000
季军:1支队伍,USD 1,000 差旅赞助:冠亚军队伍将获得1,000美元/队的差旅赞助,前往IJCAI 2019主会
特别奖:2支队伍,USD 1,000 /队(作为参会差旅赞助提供) 报名地址:https://tianchi.aliyun.com/competition/entrance/231701/introduction
|