新浪新闻客户端

新加坡国立大学在读博士张景锋:基于对抗学习的模型鲁棒性研究 | 公开课预告

新加坡国立大学在读博士张景锋:基于对抗学习的模型鲁棒性研究 | 公开课预告
2020年08月05日 20:46 新浪网 作者 智东西
新加坡国立大学在读博士张景锋:基于对抗学习的模型鲁棒性研究 | 公开课预告对抗样本,即对输入样本故意添加一些人类无法察觉的细微干扰从而形成的新样本,可以导致模型以高置信度给出一个完全错误的输出。对抗样本给深度学习领域带来了极大的挑战与实际危害,如针对面部识别系统缺陷的非法认证、医疗数据等领域的隐私窃取和自动驾驶系统的恶意控制等。因此,提升深度学习神经网络的鲁棒性变得愈发重要。

  对抗学习是目前提升模型鲁棒性最有效的方式,其核心思路是针对当前的神经网络构建对抗样本,然后通过不断更新网络参数来学习对抗样本。传统对抗学习是基于极小极大算法(Minimax),这是一种找出失败的最大可能性中最小值的演算法(即最小化对手的最大收益)。Minimax算法假设了对手有完美决策能力,我方策略只能是在对方所能导致的最差情况中选择最好的那种,因此其本质上是一种悲观算法。

  在上述公式的内层中,通过最大化损失函数寻找最恶劣情况的对抗样本;在外层中,通过学习对抗样本来最小化损失函数。此公式被证明在提升模型鲁棒性方面表现优异,但由于此算法的“悲观性”,也导致了学习过程中的诸多问题。如在最大化损失函数的过程中,此算法并不在意模型对数据的分类是否正确,因此鲁棒性的提升是以牺牲准确率为巨大代价的。除此之外,因为每次寻找对抗数据都需要多次反向传播,所以学习过程十分耗时。那么是否有可能对极小极大公式进行改进优化,使得模型能兼顾对抗鲁棒性与准确性,并降低计算复杂度呢?

  8月6日晚上8点,智东西公开课邀请到新加坡国立大学在读博士张景锋参与到「机器学习前沿讲座」第4讲,带来主题为《基于对抗学习的模型鲁棒性研究》的直播讲解。张景锋博士将从对抗学习在提升模型鲁棒性中的研究与挑战出发,详解极小极大公式的原理及缺陷,并深入讲解如何在兼得模型鲁棒性与准确性的前提下,构建一种基于友好对抗样本的对抗训练模型—Friendly Adversarial Training(FAT)。

  张景锋是新加坡国立大学计算机学院的在读博士,主要研究领域为人工智能的鲁棒性,在ICML等顶级会议发表多篇论文。张博士本科毕业于山东大学泰山学堂。

  课程内容

  主题:

  基于对抗学习的模型鲁棒性研究

  提纲:

  1. 对抗学习在提升模型鲁棒性中的研究与挑战

  2. 基于极小极大优化的对抗学习原理

  3. 基于友好对抗样本的对抗训练模型FAT的构建

  讲师介绍

  张景锋,新加坡国立大学计算机学院在读博士。主要研究领域为人工智能的鲁棒性;在ICML等顶级会议发表多篇论文;本科毕业于山东大学泰山学堂。

  直播信息

  直播时间:8月6日 20:00

  直播地点:智东西公开课小程序

  答疑地址:智东西公开课讨论群

  加入主讲群

  本次课程的讲解分为主讲和答疑两部分,主讲以视频直播形式,答疑将在「智东西公开课讨论群」进行。

  加入讨论群,除了可以免费收看直播之外,还能认识讲师,与更多同行和同学一起学习,并进行深度讨论。

  扫码添加小助手曼曼(ID:zhidx006)即可申请,备注“姓名-公司/学校/单位-职位/专业”的朋友将会优先审核通过哦~

特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。
权利保护声明页/Notice to Right Holders

举报邮箱:jubao@vip.sina.com

Copyright © 1996-2024 SINA Corporation

All Rights Reserved 新浪公司 版权所有