Search
Close this search box.
Search
Close this search box.

黄开竹教授:如何让人工智能更靠谱?

近年来,新闻报道中涌现出数起由于自动辅助驾驶系统的人工智能(AI)缺陷所引发的交通事故,再次引起了公众的关注。在一起事故中,一辆装备有先进自动辅助驾驶系统的汽车,因系统判断错误,无法准确识别前方的汽车和行人,在并没有障碍物的空旷道路上突然紧急制动,尾随其后的车辆无法及时避让,导致多辆车连环追尾。

AI失之毫厘的差错,竟酿成了差之千里的危险后果。

尽管以ChatGPT、Sora为代表的AI最新应用点燃了大众对于技术的狂想,然而我们身处的环境中,依旧存在“愚蠢”的AI甚至是危险的AI。那么,我们能否继续信任AI?所有这些都建立在一个基础之上,即当前的AI系统需要更为可靠和值得信赖。换言之,如何安全稳定地运用AI亟待深入研究。昆山杜克大学电子与计算机工程教授、大数据研究中心主任黄开竹博士多年来正是在这一领域深耕。

多年来,黄开竹教授一直专注于机器学习鲁棒性(Robustness)、泛化性等方面研究。如何让AI更可靠、更可信,贯穿了他的学术生涯。

黄开竹教授在清华大学做关于人工智能与安全的特邀报告


补足AI短板

黄开竹教授把自己的研究领域形容为木桶的最短的那块板。如果说将AI的发展与应用看作是一个木桶,拉高AI无限可能的长板固然重要,但在某些情况下,AI的底线,即AI应用过程中的“最坏情况”(Worst Case)同样值得关注。

研究表明,倘若在机器学习过程中添加一些细微“噪声”信息,极易导致算法出现误解和误判,ChatGPT在某些情况下会“一本正经地胡说八道”形象地诠释了这一点。

现实世界的环境更加复杂,“最坏情况”出现的频率不断增加,毋庸置疑,AI犯错的可能性亦随之提高。AI最短的板,决定了其能否在遇到意外情况时仍然正常运作,能否在安全关键领域始终保持其稳定性与可靠性。

2023年,得益于国家自然科学基金面上和重大项目的资助,黄开竹教授及其团队开展了一系列基于对抗训练的深度学习鲁棒泛化性研究及应用的科研工作,从而推动AI在各类复杂场景下可信可靠研究再向前一步,进而在理论和实践上补足AI最短的板。

黄开竹教授在实验室

除了AI在最坏情况下的底线问题,另一个掣肘因素是AI的因果推理。

黄开竹教授举了一个例子,在炎热的天气,冰淇淋销量会增加,但也会有更多人溺水。然而,现有的机器学习算法可能会错误地认为冰淇淋销量和溺水之间存在密切关系,这其实是一个悖论。

“我们需要研究AI算法的本质,包括理解其背后的因果性,而不是简单地观察相关性,否则算法可能会给出奇怪的结论。”

因此,黄开竹教授研究的另一个重点是增强AI的因果推理能力,即将因果性纳入机器学习算法中。但在他看来,纵然知晓这一研究方向,但提高AI因果推理能力仍然面临诸多挑战。

首先,最坏情况难以穷尽,同时很难进行描述和定义;其次,海量数据之间的因果关系难以快速获得;最后,在实验室环境下的算法难以适应复杂多变的现实场景。

任何理论的研究终须落地生根,这种问题意识的聚焦与他对学术的追求及对行业的深耕密不可分。黄开竹教授曾与商业银行合作,将自研算法用于金融数据的识别,但过程中发现实际数据与实验室训练数据存在很大差异。因此,多年来他始终活跃于研究领域一线,致力于寻找面向真实场景的AI解决方案。


思考AI本质

相较于外界甚嚣尘上的AI神话,黄开竹教授作为该领域的资深学者和专家,对于AI的发展倒是多了几分冷静与克制。他很认同图灵奖项获得者杨立昆(Yann LeCun)的观点,即ChatGPT仅是一个优化组合得很好的产品,实则在理论领域缺乏革命性的创新。

近年来,AI在应用层面发生了巨大变化,从参与人机大战的AlphaGo到胜任各种任务的人形机器人,新概念、新技术、新产品层出不穷,通用人工智能(AGI)的涌现似乎只差临门一脚。但黄开竹教授认为,近年来AI的发展很大程度上得益于算力的飞速提升和数据体量的扩展,而AI三要素之一的算法尚需进一步提升,尤其是可靠性和因果推理还有很大的改善空间,因此AGI时代的到来尚需时日。

对于AI未来发展趋势,黄开竹教授秉持着一种介于技术乐观主义和人类终结论之间的审慎态度。

“从长远来看,机器和人类可能会趋于相似,例如人类可能会拥有机器一样的计算能力,而机器可能会拥有人类的情感。”但要实现这点,就必须清醒地认识到当下算法存在的可靠性和泛化性问题,并努力推动寻求相应的解决方案。

这种对于AI本质的理性思考,延续到了黄开竹教授的课堂教学中。在昆山杜克大学面对本科生和硕士生的授课中,他都会侧重经典机器学习和数学基础的讲解,他认为这才是AI领域的基石。无论AI的外在技术表现如何变化,都是建立在基础知识之上的,因此教学中再怎么强调都不为过。

黄开竹教授和电子与计算机工程硕士项目(ECE)学生进行专业讨论

“学生们应该更多地关注算法背后的物理意义和本质,而不仅仅是局限于不同模型的具体形式。”

在他的深度学习课程中,近一半的内容都是围绕理论基础和经典深度学习模型展开的,他希望通过这样的教学模式,让学生准确理解和掌握深度学习的原理和本质。

在指导学生的过程中,他一直强调工科思维和理科思维的有机统一。AI背后是数学和统计学的应用,但也需要动手能力的参与,方可与现实世界产生交互。他坦言,研究生招生过程中,最关注申请学生的数学素养、动手能力以及对物理含义的理解。

无论是科研工作还是教学指导,黄开竹教授始终都在思考AI的本质,而非流于其在应用层面的表象。

引领AI教育

黄开竹教授在意大利巴里做人工智能与安全大会讲习报告

AI应用的狂飙突进,正在以前所未有的方式刷新着人们对于技术边界的认知,但黄开竹教授希望能在这样的激流中稳住船舵。

业界以追求经济效益为先,而大学作为科研教育的主阵地,需要兼顾经济效益与社会效益,这是业界研究与大学研究的区别。因此,他在教学和科研中专注于一系列有利于中长期发展的工作。

他认为,昆山杜克大学宽松的研究氛围赋予了他这种挑战“硬骨头”的底气,让自己可以不被发表压力所负累,而是有更多的自由可以探索自己的研究志趣,才能在这个并非AI主流研究方向的领域,持续开掘,持续贡献。

让算法可信并在各类场景中具备应用能力,并不是一件一蹴而就的任务。因此,黄开竹教授需要领着更多对于这个方向有热情的学生叩开这个领域的大门。他的目标是培养兼具理科思维和工科素养的顶尖人才,这和昆山杜克大学电子与计算机工程(ECE)硕士项目的培养理念不谋而合。

如果学生的理科思维出类拔萃但缺乏动手经验,他会鼓励学生实践编写代码,反之,对于应用能力突出但数学基础不够扎实的学生,他会额外为他们讲解数学知识,并提供联系和推导的机会。在ECE 590K:深度学习导论(Introduction to Deep Learning)这门课的课堂上,他会特意让这两类学生结成小组,相互补足,共同进步。

在课外,黄开竹教授则更注重ECE学生能力的梯度提升,他每一次布置练习,总是将难度控制在超越一些他们现有水平的范围,用他的话说是需要“垫着脚去够一够”,这样才能最有效地拓展学生知识,提升他们的能力。

黄开竹教授认为,从事AI研究的相关能力和素养都是可以慢慢培养的,但唯有强烈的兴趣和动力,才可能在这个领域做到极致。这是他自己的真实写照,也是对学生最殷切的期盼。


截至目前,他已经成功指导了17名学生取得了博士学位,如今他们已经奔赴了AI行业的各个领域。他们中60%进入学术界,接力持续探索可信AI,40%进入产业界,入职顶尖互联网公司,推动AI在各行各业的泛化应用。无论是在科研指导还是就业选择上,他始终对学生抱有开放心态。在他看来,学生无论是选择何种研究方向,决定何种就业去向,他所需要做的是激发他们的主观能动性,让他们自由探索,并在过程中给予引导,帮助他们做出最有益的选择。

AI的终极归宿是应用在真实世界,造福人类,黄开竹教授的研究都来源于、扎根于且落回到真实世界中。未来他将继续机器学习鲁棒性和泛化性的探索之旅,为AI在真实世界中的应用搭好“保险栓”。

教授简介

黄开竹,昆山杜克大学电子计算机工程教授,大数据研究中心主任,武汉大学兼职教授、博导。中国图象图形学会文档分析与识别专委会副秘书长。研究方向为机器学习、可信人工智能。2004年获得香港中文大学计算机科学与工程博士学位、2000年获中科院自动化所模式识别与智能系统硕士学位、1992年-1997年在西安交通大学自动控制系、少年班学习,获学士学位。在香港、日本和英国有多年学习和工作经验。2006年获得富士通研究所最高奖励社长奖,2004-2007年连续3次获得富士通研究中心优秀成果奖。2011年获亚太神经网络学会青年科学家奖、2019年获得教育部科技进步二等奖,2022年获得江苏省333高层次人才奖,已在主流国际人工智能会议上获得7次最佳论文(或提名)奖。担任6个国际人工智能杂志副主编或编委,在人工智能方面国际会议或研讨会上受邀做大会报告和讲习报告40余次。迄今为止,已发表国际杂志和会议论文220余篇,其中SCI杂志100余篇。

如果您是一名记者,正在寻找有关大学的信息或专家采访故事,我们的团队可以提供帮助。

媒体关系

中国传播

李怡
联系电话: (+86) 0512-3665 7720

邮箱: yi.li@dukekunshan.edu.cn

Add our
WeChat