在当今科技界,AI大模型的发展正如火如荼,其背后的潜力与前景吸引了无数企业与科研机构的目光。2024年9月27日,由中国科协企业创新服务中心、北京经济技术开发区管理委员会等联合主办的“AI大模型应用场景”产学研融通创新活动在北京召开。此次活动旨在搭建产学研交流平台,促进AI大模型等新兴技术在传统产业中的深度应用,全面助力我国产业数字化转型升级。
作为领先的融合算力基础设施服务企业代表,博大数据产品及生态拓展部副总裁高辉受邀出席本次活动,并参与圆桌对话环节。围绕“AI大模型应用场景真正爆发离我们还有多远”的主题,与来自智谱AI、北京服装学院、北京首医大科技发展有限公司等机构的领导与专家共同探讨如何通过多维度的协同合作,释放AI大模型的潜力,推动其在能源、医疗、纺织等产业中的深度应用与创新发展。
AI大模型的“寒武纪前夜”,算力与生态迎双重挑战
高辉将当前AI大模型的发展状态比作“寒武纪生物大爆发的前夜”。这意味着,AI大模型正处于一个孕育新物种、新生态的关键时期,众多企业都在积极筹备,试图在这场科技变革中找到自己的“生态位”。然而,这一过程并非一蹴而就,需要时间的积累和生态的完善,以及产业链上下游的携手共建,一个健康的生态系统将促进AI大模型的高质量发展。
在谈到AI大模型发展的阻碍时,高辉强调了算力与生态的双重挑战。从算力的角度来看,算力运营商和高密机柜运营商面临的最大痛点是找到商业上能跑通的闭环场景;其次是算力资源仍然相对昂贵;再者,算力的调度、组网以及设备的选择也是企业面临的难题。为了解决这些问题,高辉建议通过共享算力的方式来实现资源的优化配置,并指出算力虽然是共享的,但数据可以是私有化的,能够确保企业的数据安全。
在生态方面,AI大模型的落地需要一个完整的生态系统作为支撑,这其中涵盖了上下游企业的协同合作、与高校和政府的紧密联动等。“目前这一生态系统仍处于探索阶段,我们行业内各方应共同努力,通过组建生态方阵等方式来推动生态系统的建立和完善。”高辉呼吁。
从All in AI到AI in All,产业携手共赢爆发式增长
随着AI应用的大规模落地,各行业对于算力需求空前高涨。高辉认为,当前的算力需求分为训练需求和推理与微调需求两大类别。对于前者,由于其需要处理大量的数据,因此通常需要数万甚至数十万张显卡级别的算力支持,并且对故障率和组网效率也有较高的标准。而对于推理算力,则会根据具体的应用场景的不同,对时延、地理位置以及网络条件有着特定的需求。举例来说,在大模型推理、自动驾驶、量化交易、电竞游戏这类高算力需求的应用场景中,利用边缘算力资源进行复用是一种有效的策略,其可以帮助降低整体成本,同时提升资源的使用效率。
智算中心作为承载大规模算力的关键基础设施,在AI时代已经演变为智算中心。博大数据凭借前瞻的行业视野,以及超过二十年的深耕实践,针对智能时代下各行业的算力需求,打造了深圳前海智算中心和廊坊智算中心两大新一代智算中心。基于高弹性、高管理、高可靠、高算力、高能效、高安全的智算理念,博大数据提供了高度满足区域AI、云技术和传统数据中心等多维度的服务需求。
展望未来,高辉对于AI大模型的发展持乐观态度。基于博大数据智算中心的成功实践和技术积累,他认为,随着算力和电力成本的降低以及技术的不断进步,AI大模型将迎来爆发式增长。据预测,在未来两三年内,当算力和电力成本降到足够低的水平时,AI大模型的应用场景将呈现出指数级的增长态势。
“现如今,很多企业都在‘All in AI’,我认为未来很有可能发展成为‘AI in All’。”高辉强调,观望和等待只会错失良机,企业应躬身入局,通过加入生态、参与探索等方式来积累经验和资源,为未来的爆发式增长奠定坚实的基础。
免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。