【ZiDongHua 之品牌自定位收录关键词: 亿铸科技 人工智能 ChatGPT
  
  亿新闻 | 演讲回顾:需求拐点来临,未来算力增长将以存储单元为中心
  
  随着人工智能技术的飞速发展,AI芯片已成为推动科技进步的关键力量,但是随着数据量的不断增长和模型复杂度的提升,传统的计算架构已经无法满足当前AI应用的需求。如何满足大模型时代对于AI大算力芯片性能和功耗的极致要求,产业界急需寻找新的路径进行突破。
  
  算力迎来需求拐点,硬件架构成为关键路径
  
  
  
  熊大鹏博士出席2024全球AI芯片峰会
  
  在2024年9月7日举行的2024全球AI芯片峰会(GACS 2024)上,亿铸科技创始人、董事长兼CEO熊大鹏博士受邀出席“AI芯片架构创新专场”并带来精彩演讲,详细介绍了AI芯片架构创新如何开启大算力第二增长曲线,并从多个角度解读大模型时代下的AI大算力芯片解决方案。
 
  
  熊大鹏博士指出,大模型已经从量变逐渐演变为质变,随着数据、算力、参数量提升,压缩损失率降低,模型能力增强,当模型体量足够大时,会出现类似人类“开悟”的涌现能力,随之而来的就是推理能力显著提升。
  
  同时,随着AI应用最后一公里打通和业务落地,对AI计算能力的需求也将迎来拐点。Omdia最新的《云计算和数据中心人工智能处理器预测》报告指出,目前用于云计算和数据中心人工智能的GPU和其他加速芯片的市场规模已从2022年的不到100亿美元增长到今年的780亿美元。预计到2029年,将最终达到1510亿美元。但2026年,整个市场可能会出现一个明显的拐点,推动增长的动力将从技术采用转向人工智能应用需求的变化。
  
  IDC则预测,未来的人工智能服务器将注重提高计算能力和处理效率(能效比),以适应更复杂、更大规模的人工智能应用。预计到2027年,用于推理的AI算力占比将达到72.6%,未来有望达到95%为推理,5%为训练。
  
  但是,熊大鹏博士指出,现有的芯片硬件性能提升速度已难以满足算法模型急剧增长的算力需求。国信证券经济研究所报告指出,大模型参数规模每18个月增长35倍,而摩尔定律下的芯片仅增长2倍。因此,需要新的硬件架构突破,探索和发展新的架构成为关键路径之一。
  
  算力第二增长曲线将以存储单元为中心
  
  熊大鹏博士在第二届智能算力发展论坛发表演讲
  
  那么为何需要新的硬件架构进行突破呢?在9月9日举行的“第二届智能算力发展论坛”上,熊大鹏博士强调,目前AI芯片面临的“三堵墙”:存储墙、能耗墙和编译墙。
  
  其中,存储墙是指存储器的数据访问速度跟不上计算单元的数据处理速度,导致性能瓶颈的问题。数据显示,存储器的速度每年增加7%,而微处理器性能每年增加60%,它们之间的性能差每年扩大50%。
  
  同时,由于存储墙的存在则带来了能耗墙和编译墙的问题。能耗墙是指随着芯片性能的提升,能耗和散热问题成为限制进一步性能提升的主要因素。在AI芯片中,大量的并行计算会导致能耗急剧增加,这不仅增加了冷却成本,还可能影响设备的可靠性和寿命。编译墙则是随着AI模型的复杂性增加,编译器需要处理的数据量和计算任务也急剧增加,这使得静态编译优化变得非常困难。手动优化又消耗了大量时间,因此,编译墙影响了AI芯片的易用性和效率。
  
  熊大鹏博士指出,想要打破AI芯片“三堵墙”,就需要从算力的第一性原理(阿姆达尔定律)来着手,将数据搬运量大幅下降,使得F值接近于0,才能保证有效算力密度线性增长。阿姆达尔定律揭示了并行计算的潜力和局限性,在实际应用中,需要综合考虑各种因素来优化系统性能。
  
  以Llama2-70B模型为例,每次计算需搬运70B数据,根据第一性原理,距离越远、节点越多则F值越大,有效算力越低。同时,随着模型增大,F值上升,算力利用率下降。在目前传统的计算架构下,大算力芯片的有效算力往往远远低于理论算力,算力利用率也仅为30%左右。
  
  熊大鹏博士强调,通过结合存算一体架构等先进技术,可以突破传统计算模式的瓶颈,实现更高的有效算力,打破有效算力的天花板。未来,以算力单元为中心的时代即将结束,算力第二增长曲线将以存储单元为中心。
  
  如何突破有效算力天花板
  
  针对于架构创新,熊大鹏博士解读了目前存在的几种解决方式:一种是存内计算,另一种是近存计算。
  
  其中,存算一体通过将存储和计算功能融合,减少数据搬运延迟,提升性能和能效。在存算一体架构的理想状态下,F=0,能够实现存储与计算无缝融合。
  
  近存计算是将存储单元和计算单元通过先进3D/2.5D封装集成在一起的技术,增加访存带宽、减少数据搬移时延,以提升整体计算效率,本质上来看,近存计算依然属于存算分离的架构,同时面临着工艺成熟度、微缩性、系统集成和通信瓶颈等多方面的挑战。
  
  熊大鹏博士表示,亿铸科技自成立以来,始终致力于通过存算一体,提供贡献更具性价比、更高能效比、更大算力发展空间的AI大算力芯片发展新路径。2023年3月,面对ChatGPT等大模型带来的AI算力挑战,亿铸科技首次提出“存算一体超异构”,为大模型时代AI大算力芯片换道发展提供全新思路。
  
  可以说,亿铸科技不仅在技术上实现了重大突破,更在产业应用上展现了巨大的潜力。有理由相信,伴随着这一技术的落地和成熟,AI芯片技术会进入一个新的发展阶段。亿铸科技将继续推动AI芯片技术的创新,为全球AI技术的发展贡献力量!