首页 科技快讯 华人学者入围2022年“人工智能10大新星”,为可信机器学习系统提供理论保障

华人学者入围2022年“人工智能10大新星”,为可信机器学习系统提供理论保障

来源:晰数塔互联网快讯 时间:2023年05月18日 21:55

近日,国际人工智能领域著名杂志 IEEE Intelligent Systems 公布了 2022 年度“人工智能 10 大新星”(AI's 10 to Watch)名单 。

“我们很自豪能够发现人工智能领域的年轻新星,并承认和促进他们的宝贵贡献。当今快速发展的人工智能领域,提供了更好的开发工具和有利的环境,年轻的专业人士和研究人员很幸运能够成为人工智能黄金时代的一部分。”IEEE Intelligent Systems 杂志主编(临时)桑·穆鲁吉桑 (San Murugesan)对媒体表示。

“他们有独特的机会,通过将他们的努力引向对全人类都有好处的重要领域,来产生有意义的影响。他们应该利用他们的技能和专业知识来实现更大的利益,并将人工智能的未来塑造得更好。” 他补充说道。

本次 AI's 10 to Watch 名单(按官网公布顺序)包括美国伊利诺伊大学厄巴纳-香槟分校(University of Illinois at Urbana-Champaign,简称 UIUC)计算机科学系的助理教授李博、澳大利亚悉尼大学高级讲师及阿联酋穆罕默德·本·扎耶德人工智能大学机器学习系客座副教授刘同亮、哈尔滨工业大学计算机科学与技术学院院长及教授聂礼强、新加坡科技与设计大学计算机科学系助理教授苏简亚波里亚(Soujanya Poria)、谷歌(美国)高级研究员 Deqing Sun、美国加州大学洛杉矶分校计算机科学系副教授孙怡舟、美国密歇根州立大学的校级教授汤继良、美国得克萨斯大学奥斯汀分校电子和计算机工程助理教授汪张扬(Atlas Wang)、澳大利亚昆士兰大学副教授阴红志。

据了解,从 2006 年开始,IEEE Intelligent Systems 杂志设立 AI's 10 to Watch,旨在全球范围内每两年评选出 10 位从事人工智能领域研究的杰出青年学者。

图 | 李博(来源:李博个人主页)

其中,李博团队专注于提供具有理论保障的可信机器学习系统的研究,包括鲁棒性、隐私性、泛化性和公平性等。

根据官方网站公示,李博通过将领域知识和逻辑推理能力集成到数据驱动的统计机器学习模型,来提高有保证的学习鲁棒性。并且,她已经为高维数据设计了可扩展的隐私保护数据生成框架。她的研究为机器学习系统的可信度提供了严格的保证。值得关注的是,该技术已在相关的工业应用中被使用。

在这之前,李博凭借在对抗机器学习方面的研究,成为 2020 年《麻省理工科技评论》“35 岁以下科技创新 35 人”(MITTR 35)全球入选者之一。她的入选理由为:通过设计新方法来“愚弄” AI,进而使 AI 变得更安全。

此外,她最近获得的奖项还包括 2022 年斯隆研究奖、IJCAI 大会计算机与思维奖(IJCAI Computers and Thought Award)、UIUC 院研究卓越奖、C.W. Gear 杰出初级教师奖。除了学术界的荣誉,她还获得了来自 Meta、亚马逊、英特尔等大型科技公司颁发的奖项。并且,她的成果多次获得顶级会议的最佳论文奖。

最近,李博团队收获了系列成果。例如,他们做了一系列学习推理框架,为纯数据驱动模型支持知识的逻辑推理组件。这样可以明确地将领域知识或者人类指令集成到模型中[1]。“我们的 NeurIPS 论文学习推理首先提供了这样的框架,并提出了如何给该框架提供鲁棒性验证的方法。”李博说。

在后续的 ICML(国际机器学习大会, International Conference on Machine Learning)研究中,她和团队证明了这样的框架一定比单独的一个模型(比如全连接神经网络)更鲁棒[2]。

近期,李博团队在 IEEE 安全和隐私会议(IEEE Symposium on Security and Privacy,简称 IEEES&P)上报告了一套关于认证鲁棒性方法的分类系统,并提供了统一工具箱来轻松地实现不同的证明和鲁邦训练的方法。此外,他们还提供了排行榜,以方便使用者比较不同的方法等。

李博认为,可信机器学习提供理论上的保障非常重要,否则如果之后经验主义上的鲁棒性或者确实性,人们就无法阻挡新的自适应攻击者。其团队目前专注于自动驾驶和大模型的可信学习,目标是为自动驾驶和大模型提供标准化的可信验证。

例如,在该团队最近的一项研究中,对于 GPT-4 和 GPT-3.5 从毒性、鲁棒性、分布外样本(out-of-distribution,ODE)、隐私、人工智能伦理、公平性、刻板印象偏见等不同角度进行可信度评估。此前,他们之前还做了一系列关于自动驾驶测试的安全关键场景生成的工作,希望能对自动驾驶安全提高有所帮助。

未来,李博和团队将继续致力于解决机器学习模型的可信问题,并为其提供理论保障。“这其中主要的挑战有如何给不同机器学习模型和应用定义理论保障,并使得其理论保障可扩展并应用于不同真实场景中。”她表示。

参考资料:

https://www.computer.org/publications/tech-news/insider/2022-ais-top-10-to-watch

1.https://arxiv.org/abs/2003.00120

2.https://arxiv.org/abs/2106.06235

3.https://arxiv.org/abs/2009.04131

运营/排版:何晨龙

发布于:北京

相关推荐

华人学者入围2022年“人工智能10大新星”,为可信机器学习系统提供理论保障
顶级AI学者邢波教授:机器学习缺乏清晰理论与工程框架,需重新思考评估方法及目标
清华大学发布人工智能全球2000位最具影响力学者榜单,中国上榜171人次
机器学习之父说,别把啥都往人工智能上扯
36氪专访|港科大教授杨强:数据安全时代,可信联邦学习正在改变人工智能的发展逻辑
伦理即服务:科技伦理与可信AI的下一个浪潮
深度学习光环背后,哪些机器学习的新进展被忽视?
图灵奖得主LeCun及7位华人博士当选美国科学院2021院士
华人如何改变人工智能?
NeurIPS 2019放榜:华人作者贡献42%,谷歌170篇屠榜;国内清华第一,腾讯领衔产业界

网址: 华人学者入围2022年“人工智能10大新星”,为可信机器学习系统提供理论保障 http://www.xishuta.com/newsview75310.html

所属分类:人工智能

推荐科技快讯