【ZiDongHua之会展赛培坛收录关键词:无问芯穹 人工智能 大模型】
 
蓄力开新局!无问芯穹联合创始人、CEO夏立雪出席2024中国企业领袖年会未来对话,共议人工智能创新发展与深度落地
 
  12月14日,由《中国企业家》杂志社主办的2024(第二十二届)中国企业领袖年会在北京开幕。自2002年创办以来,历经22载春秋,这一盛会已成为卓越企业家们激荡思想、洞察趋势的年度盛事。本届年会以“蓄力开新局”为主题,集结了中国顶尖企业家,共同聚焦商业前瞻,携手探索企业发展的新局面。邀请到零一万物首席执行官、创新工场董事长李开复,360集团创始人周鸿祎,用友网络董事长、CEO王文京等嘉宾发表主旨演讲。无问芯穹联合创始人、CEO夏立雪受邀参与“未来对话:人工智能热潮下的冷思考”环节,与北京智源人工智能研究院院长王仲远、光源资本创始人CEO郑恒乐、中科闻歌董事长王磊一起回顾总结2024年人工智能全球发展态势并分享年度思考。
 
 
  2024(第二十二届)中国企业领袖年会现场
 
  在全球范围内,人工智能的浪潮正以空前的速度引领科技革命和产业变革。两年来,AI技术飞速进步、AI工具百花齐放、AI作品目不暇接,AI应用逐步渗透到人类生活的各个角落。大模型时代的领航企业家们勇立潮头,不断取得技术创新突破、深耕产业落地场景。在主会场的“未来对话:人工智能热潮下的冷思考”圆桌上,夏立雪就“如何破解大模型的数据与算力瓶颈”“大模型与传统行业结合的关键阻力”“未来五年的AI发展变化”等问题作解答。
 
 
  《未来对话:人工智能热潮下的冷思考》现场
 
  夏立雪表示,在AI模型迭代的整体进程中,算力、数据和算法需要协同进化。欲突破数据与算力瓶颈,需做好三要素之间的互相平衡和补充。现有公共数据中的高质量文本很可能已不足以支撑ScalingLaw(缩放定律)中的下一代或更先进模型的能力训练,为应对这一挑战,推理模型(类GPT-o1)面世,对数据的需求较低且能够通过强大的推理能力来克服知识不足和幻觉问题。更好的数据可以帮助模型减少对算力的依赖,而更多的算力可以用来生成合成数据,继续反哺模型——这种改变意味着推理算力消耗的指数级增加,对我们这样的AGI算力供应团队提出了更高的要求。
 
  作为大模型时代首选的算力运营商,无问芯穹正在通过软硬件联合优化来提升存量算力性价比,同时将多元异构算力激活并形成标准化服务来扩大算力供给,以及通过发展端上智能,以减轻云端算力与服务压力等策略,来构建技术体系与商业产品,致力于降低算力与大模型技术的应用门槛和成本。
 
 
  无问芯穹联合创始人、CEO夏立雪
 
  “当前,AI与传统产业结合的关键阻力还是‘算不过来账’。”夏立雪认为,行业需要算力利用率的整体提高,以及成本的整体下降。今天,AI应用的商业模式已在许多场景中得到验证,但收入能覆盖token cost,是产业愿意尝试投入的前提,也是AI应用繁荣的前提条件。只有让大模型企业和行业应用企业的模型训练或推理成本、门槛都下降后,才能生长出更多的能力和余力来打磨好业务形态和商业闭环。
 
  展望未来五年,夏立雪认为AI发展将“更可靠、更自动、更懂行、更尖端”,即具备更强的推理能力与可靠性,模型自动化程度持续提高,与场景发生更深度和有意义的结合,乃至影响前沿科学重大发现。我们今天的技术与商业,应当为明天的系统做好准备,随着AI模型在各行各业的深度应用,技术与场景的关系将从粗放结合转向更深层次的互相价值挖掘,将带来云与端侧指数级的推理算力需求增长,在那之前,AI技术的供应,需要变得像晶体管、水电煤一样成熟,以成为推动社会变革的重要引擎。
 
  关于无穹
 
  无问芯穹(Infinigence AI)作为国内领先的AI基础设施企业,致力于成为大模型时代首选的算力运营商。依托“多元异构、软硬协同”的核心技术优势,打造了连接“M种模型”和“N种芯片”的“MxN”AI基础设施新范式,实现多种大模型算法在多元芯片上的高效协同部署。无问芯穹Infini-AI异构云平台基于多元芯片算力底座,向大模型开发者提供极致性价比的高性能算力和原生工具链,为大模型从开发到部署的全生命流程降本增效。
 
  无问芯穹以“释放无穹算力,让AGI触手可及”为使命,通过不断的技术创新实现普惠AI,让算力成本实现万倍下降,如同水电煤一般为千行百业注入新质生产力。