梁伯嵩:帮助产业创造新价值,台湾应训练大型AI模型
AI模型训练所带来的运算需求,将带动未来晶片的成长,联发科前瞻技术平台资深处长梁伯嵩博士认为,这股成长速度已经超越摩尔定律,且为了防止产业资料外流,并利用内部IP创造新的产品价值,应自主训练大型AI模型。同时,他也对台湾至今仍没有任何一个百亿亿级的超级电脑建置计画,感到担忧。
AI与IC半导体的黄金时代来临
梁伯嵩表示,自2012年开始蓬勃发展的「深度学习时期」,在算力需求上大幅成长;但近期进入的 「大规模神经网路时期」,不仅模型参数成长近千倍,所需的运算力更暴增数十万倍以上。在GPT3被提出後,整个AI模型训练的运算需求在七年间成长30万倍,其成长速度更已经超越摩尔定律,亦即IC半导体的量需要增加上万倍。
目前,大型AI模型训练是许多先进国家高度关注的重点趋势。梁伯嵩认为,考量到大型AI模型训练的演算需求过於庞大,短时间内为了推动生成式AI的普及化和大众化,仍会在可接受范围内,维持或缩减部分AI功能,以降低整体运算成本;中长期趋势来看,预期将会持续增加神经网路参数数目与运算量,需仰赖晶片技术的提升,并建置更多超级电脑来完成模型训练。
目前台湾在大型AI模型的应用上,多半是将自家资料传送给海外的AI模型训练,过程中可能潜藏的风险包括使用的资料与模型中,是否有资料毒化或偏见;问题是否会泄漏公司机密、答案可信度,且缺乏本地资料等问题。
针对资料类型采取不同做法和态度
梁伯嵩建议,面对大型AI模型潮流,台湾应针对资料类型采取不同做法和态度。根据资料开放程度,可区分为公开资料和具备隐私性的非公开资料,在公开资料方面,应和微软(Microsoft)、Google、NVIDIA等大厂合作,多方参与国际生态体系交流。此外,针对一些政府、企业的核心内部资料,影响到关键技术、专利,甚至国安相关资料,则应该自主训练大型AI神经网路来因应,以确保关键研发资料不外流,且能利用自身的领域知识及IP创造更多价值。
他强调,对於台湾产业界来说,面对大型AI模型不应只是片面追逐潮流,而是要能将内部知识转为AI能力,并启动内部IP创造更新的研发或产品价值。此外,训练自己的大型AI模型更能防止被外部控制的风险。
IC进步带来的新竞争
梁伯嵩指出,台湾目前最强的超级电脑「台湾杉二号」的运算速度,仅约百亿亿级超级电脑的0.009倍。若要训练目前热门的GPT-3(其参数量高达1750亿),若使用百亿亿级 AI 超级电脑,就要花上 数天。如果是由台湾杉二号来做这样的训练,则需要好几个月的训练时间。显见计算能力对於AI发展的影响。
目前,包括美国、中国已完成数台百亿亿级超级电脑,截至2025年,美国将会持续建置到约当 10~20 倍每秒百亿亿级运算算力,2030年会达到 100 倍以上;中国虽未公开,但根据消息,至少已有两台。其他如欧盟、日本、韩国皆已积极的建置百亿亿级超级电脑,但湾至今仍没有任何一个百亿亿级的超级电脑建置计画,梁伯嵩担忧,对於台湾半导体和ICT产业来说,AI技术都是决定其未来竞争力的关键,在IC设计产业更是如此,这也是为何台湾无论如何都应该要有本地的大型AI模型训练计画。