查看原文
其他

​“AI安全与隐私” 系列论坛第十期-基于逻辑推理的可信赖机器学习

“AI安全与隐私”

系列论坛第十期

Trustworthy Machine Learning 

via Logic Reasoning






报告简介





由深圳市大数据研究院、中国图象图形学学会联合主办,北京航空航天大学软件开发环境国家重点实验室、中国图象图形学学会数字媒体取证与安全专委会承办,香港中文大学(深圳)数据科学学院、中国图象图形学学会视觉大数据专委会协办的“AI安全与隐私”系列论坛第十期将于12月28日举办。


报告时间

2021年12月28日(周二上午)10:00-12:00


报告嘉宾

李博(伊利诺伊大学厄巴纳-香槟分校)


报告题目

Trustworthy Machine Learning via Logic Reasoning 

基于逻辑推理的可信赖机器学习


报告主持人

刘艾杉(北京航空航天大学)


主办单位

深圳市大数据研究院

中国图象图形学学会

承办单位

北京航空航天大学软件开发环境国家重点实验室

中国图象图形学学会数字媒体取证与安全专委会

协办单位

香港中文大学(深圳)数据科学学院

中国图象图形学学会视觉大数据专委会


报告形式

哔哩哔哩线上直播

http://live.bilibili.com/22947067





报告人简介




李博(伊利诺伊大学厄巴纳-香槟分校教授)

李博博士现任伊利诺伊大学厄巴纳-香槟分校(UIUC)计算机系助理教授,曾获得Symantec Research Labs Fellowship和新星奖,麻省理工学院TR-35奖,英特尔新星奖,美国国家科学基金会职业奖等。获得各大技术公司包括Amazon, Facebook, Google等的研究成果奖,在机器学习和安全相关领域的会议多次获得最佳论文奖。她主要研究的方向为可信机器学习、安全、机器学习、隐私和博弈论的理论和实践方面。她完成了多个鲁棒性机器学习和隐私保护数据发布系统的可扩展性框架设计。她的成果曾被 《 Nature 》、 《 Wired》、《财富》和《纽约时报》等主要出版物和媒体报道。


Dr. Bo Li is an assistant professor in the department of Computer Science at University of Illinois at Urbana–Champaign, and she is the recipient of the MIT Technology Review TR-35 award, NSF CAREER Award, Intel Rising Star award, Symantec Research Labs Fellowship, Rising Stars, Research Awards from Tech companies such as Amazon, Facebook, Google, and IBM, and best paper awards in several machine learning and security conferences. Her research focuses on both theoretical and practical aspects of trustworthy machine learning, security, machine learning, privacy, and game theory. She has designed several scalable frameworks for robust machine learning and privacy preserving data publishing systems. Her work have been featured by major publications and media outlets such as Nature, Wired, Fortune, and New York Times.



报告内容





Trustworthy Machine Learning via Logic Reasoning 

基于逻辑推理的可信赖机器学习

机器学习的发展使得基于推理和决策的学习方法广泛的应用于安全相关的领域,如自动驾驶和安全诊断等。当前机器学习系统假设训练和测试数据集符合相同或相似的分布,没有考虑主动对抗行为。而最近的研究表明,有动机的对抗可以通过测试时绕过异常检测或其他机器学习模型,或者可以将精心设计的恶意实例注入训练数据,在推理时引入错误。本次讲座李博老师将介绍机器学习系统中的安全和隐私问题的研究,特别是不同领域的几种对抗攻击,并讨论潜在的防御方法和原理包括基于博弈论和知识赋能的鲁棒学习范式,以发展实用性的鲁棒性学习系统。


Advances in machine learning have led to rapid and widespread deployment of learning based inference and decision making for safety-critical applications, such as autonomous driving and security diagnostics. Current machine learning systems, however, assume that training and test data follow the same, or similar, distributions, and do not consider active adversaries manipulating either distribution. Recent work has demonstrated that motivated adversaries can circumvent anomaly detection or other machine learning models at test time through evasion attacks, or can inject well-crafted malicious instances into training data to induce errors in inference time through poisoning attacks. In this talk, I will describe my recent research about security and privacy problems in machine learning systems, with a focus on potential certifiably defense approaches via logic reasoning. We will also discuss other defense principles towards developing practical robust learning systems with robustness guarantees.








招贤纳士






我们正积极寻找人工智能安全与隐私方向的全职研究科学家、数据工程师、访问学生,以及博士后、2022年秋入学的博士研究生(人工智能安全与隐私、计算机视觉、机器学习等方向)。有关职位的更多信息,请点击招聘链接以获取更多信息。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存