在“计算机科学 – 人工智能与芯片”专题研讨会上,香港科技大学讲席教授、国际计算机学会(ACM)和电气与电子工程师协会(IEEE)会士、美国科学促进会(AAAS)会士、2024未来科学大奖周程序委员会委员谢源在致辞中对到场来宾表示感谢,并对演讲嘉宾Onur Mutlu教授、Gabriel Loh教授、汪玉教授、马毅教授的学术背景以及科研经历进行了介绍。
苏黎世联邦理工学院计算机科学教授、国际计算机学会(ACM)和电气与电子工程师协会(IEEE)会士、欧洲科学院院士Onur Mutlu,进行了《以内存为中心的计算》的主旨演讲。他指出,当前计算的瓶颈在于数据,现代机器的存储、通信和计算能力难以应对海量应用数据,导致关键应用程序性能受限。Onur Mutlu阐述了现代架构的三大缺点,并提出设计智能架构应遵循以数据为中心、数据驱动、数据感知三个原则。他举例说明了如何利用这些原则设计高效计算系统,并讨论了两种实现接近数据计算的方法:使用内存进行处理和近内存处理。研究表明,这两种架构能显著提升多种工作负载的性能和能耗,如图形分析、数据库系统、机器学习、视频处理、气候建模、基因组分析等。Onur Mutlu还探讨了实现更智能架构的应用的思考,认为这是提高效率、性能和可持续性的关键。最后,他提出了未来计算架构和系统设计的研究机会和指导原则,为相关领域的发展指明了方向。
美国超威半导体公司(AMD)Senior Fellow、国际计算机学会(ACM)和电气与电子工程师协会(IEEE)会士Gabriel Loh,以《在后摩尔时代提供人工智能算力》为题进行主旨演讲。他表示,随着前沿模型的大小和功能不断发展,新兴的人工智能和机器学习 (AI/ML) 工作负载需要更多的计算和内存。同时,半导体行业面临着越来越多的技术挑战,例如摩尔定律的终结、功耗的增加以及可能限制计算密度的传统封装约束。Gabriel Loh博士概述了包括模块化芯片设计、高级封装和异构集成,以及专业化和重用之间的谨慎平衡,并探讨了协同优化、协同设计,确保架构和底层技术协同工作等一系列解决方案和方法,从而说明从计算架构出发,继续扩展功能以满足市场需求的思考。
清华大学电子工程系教授、系主任,电气与电子工程师协会(IEEE)会士汪玉,以《面向AI 2.0时代的节能电路和系统设计》为题进行主旨演讲。他指出,基于Transformer架构的大型语言模型(LLM)在各种应用中取得了出色的表现,标志着AI 2.0时代的到来。随着模型参数的指数级增长,大型模型的计算、存储和内存访问开销与传统深度学习模型相比增加了四到五个数量级,导致算法要求和现有硬件平台的能力存在显著差异。汪玉教授回顾了AI 1.0时代的节能电路与系统设计方法,并介绍了AI 2.0时代面临的新挑战,以及LLM和扩散模型等AIGC算法。他重点探讨了其与团队基于GPU和FPGA的异构系统上的软硬件协同优化方法,包括高效AIGC算法模型、推理框架和内核优化以及节能硬件IP。通过这一方法,可成功将大型模型推理的总成本降低了四个数量级。
香港大学人工智能讲座教授、同心基金数据科学研究院首任院长、计算与数据科学学院首届总监,美国计算机学会会士(ACM Fellow)、电气与电子工程师协会会士(IEEE Fellow)和工业与应用数学学会会士(SIAM Fellow)马毅,以《追寻智能的本质》为题,从历史、科学和计算的角度阐明智能的不同层次和机制。首先,他回顾智能的进化,从系统发生,到个体发生,再到群体,再到人工智能,为准确理解过去十年机器智能看似巨大的进步与成就提供思考视角。同时,马毅教授从压缩数据编码和解码的角度为深度学习的实践提供原则性的数学解释,揭示了当前实践的局限性,并为开发更正确、更完整的学习系统提供了自然的方法。最后,他通过澄清知识和智能之间的区别与关系,为人们开发真正自主的智能系统提供思考与启发。