界面新闻记者 |
界面新闻编辑 | 宋佳楠
自从生成式AI引发全球算力需求暴涨,英伟达一手掌握了接近90%的市场份额,而AMD、英特尔及一众国产芯片厂商只能在其身后拼命追赶。
“目前以GPU为主的算力芯片本身就是垄断市场,垄断市场不存在替代。”国产GPU芯片创业公司行云集成创始人季宇日前接受界面新闻采访时表示,英伟达目前在算力芯片领域已形成了垄断优势——产品性能指标足够强、每年一迭代速度足够快、市场份额足够大。竞争对手如果只推出对标产品与英伟达竞争,很难再有机会。
从A100到H100,再到B200,英伟达每代产品的算力性能指标都有成倍提升,竞争对手的旗下产品即使峰值算力可以与其比肩,但在实际工作中的标准算力都与其有较大的差距。按照英伟达CEO黄仁勋提出的“黄氏定律”:GPU性能每6个月翻一倍,公司保持每年更新一次的产品发布节奏,该公司可以将对手远远甩在身后。
但这并不意味着市场没有任何空隙留给其他竞争者。这当中,有的继续追赶英伟达,成为市场上的“备选”,有的选择避开与英伟达正面交锋,从其他路径寻找新的机会。
成立于2023年的行云集成属于后者,其主要研发下一代针对大模型场景的GPU芯片。业内通常将算力看作计算、存储和网络互联的三项性能指标的结合。相较于其他公司单一追求GPU在计算参数指标上追赶英伟达,行云集成旨在通过相关设计提升GPU在存储上的性能表现。
季宇告诉界面新闻记者,这几年英伟达每代产品的计算性能指标在成倍提升,但相较于此前动辄5倍左右的增速有所放缓。与此同时,英伟达又在每代产品上投入大量资源去提升存储性能,包括HBM和其他先进方案。
在他看来,英伟达为了保持领先,在计算、存储上采取“齐头并进”策略,这在一定程度上造成了资源浪费:在AI大模型强调密集计算的场景,显卡存储是过剩的;在存储密集的场景,计算资源又是过剩的。这位曾入选“华为天才少年”的CEO,此前是海思昇腾芯片编译器专家,负责多个昇腾编译器项目。
季宇认为,现阶段OpenAI奉行的“Scaling law” 路线(增加模型的大小扩大训练数据集的规模、投入更多计算资源时,模型的性能通常会提高),推动AI行业发展的同时也带来了经济负担,毕竟对绝大多数公司来说,大量采购英伟达高端GPU是一笔不小的成本支出,未来规模扩张极易形成AI泡沫。
“大模型的商业探索根本上是硬件成本和模型Token质量(AI模型的基本单位)之间的相互妥协,此前业内提出的‘小模型’或者垂直模型,就是模型厂商考虑到硬件成本过高而选择的妥协方案。”季宇说。
今年上半年,国内AI模型厂商集体降价成为了行业新趋势,部分厂商下降幅度最高超过90%。季宇对此解释称,模型厂商售卖Token实际上是在售卖访存量,反映在硬件上是在售卖内存系统的访存带宽。对芯片设计而言,这直接与内存容量、带宽相关联。为满足这样的需求变化,内存容量将决定模型的业务,带宽成本将决定模型的性价比。“在这一前提下,相比继续砸重金卷计算资源,GPU芯片在存储、互联上有更大的提升空间。”
上个月,行云集成刚刚完成一笔数亿元的天使+轮融资,公司创办一年以来总计完成两轮融资,同创伟业、中科创星、春华资本、智谱AI等私募创投机构均有参与。公司的目标是推出一款低成本、高性价比的GPU,价格预计在万元左右,目前正处于设计阶段,计划在2026年推出正式产品。
面对GPU领域激烈的竞争态势,以及英伟达建立的强大生态,行云集成能否争得一席之地?
对此,季宇解释称,AI大模型爆火后第一波需求主要来自亚马逊、微软等云计算厂商,他们是抢购AI芯片的大客户。随着服务器越买越多,大模型已经变成了靠大量机器才能整体支持的单一超级业务。就像当初IBM的大型机,最早是专门为银行所需的高吞吐的数据处理需求设计一样,英伟达的GPU现阶段则针AI模型训练或推理来设计,且一家的软硬件生态已经成为了行业标准。云厂商对英伟达的依赖越来越深,话语权反而变弱,无法直接按照自身的业务场景需求设计产品,所以像微软、亚马逊、OpenAI都有布局自研芯片的计划,以增强自身话语权。
按照季宇的设想,如同英特尔x86架构曾推动个人用户手动组装计算机的潮流,继而掀起与IBM大型机闭合的“黑盒”生态竞争一样,行云集成希望通过建立开放兼容、可扩展的“白盒”生态与对手竞争,同时帮助云厂商及客户在与英伟达的共生关系里获得更大的产品和价格的话语权。
“我们并不是要用自己的产品去替代英伟达的芯片,而是客户用英伟达的芯片加上我们的补充芯片构成新组合,来满足自身特定的需求。”在他眼中,这是除英伟达之外的GPU厂商、CPU厂商及x86系统失去的阵地,也是行云集成这家新公司试图把握的机会。但其能否如愿,还要看产品和市场表现如何。
界面新闻记者 |
界面新闻编辑 | 宋佳楠
自从生成式AI引发全球算力需求暴涨,英伟达一手掌握了接近90%的市场份额,而AMD、英特尔及一众国产芯片厂商只能在其身后拼命追赶。
“目前以GPU为主的算力芯片本身就是垄断市场,垄断市场不存在替代。”国产GPU芯片创业公司行云集成创始人季宇日前接受界面新闻采访时表示,英伟达目前在算力芯片领域已形成了垄断优势——产品性能指标足够强、每年一迭代速度足够快、市场份额足够大。竞争对手如果只推出对标产品与英伟达竞争,很难再有机会。
从A100到H100,再到B200,英伟达每代产品的算力性能指标都有成倍提升,竞争对手的旗下产品即使峰值算力可以与其比肩,但在实际工作中的标准算力都与其有较大的差距。按照英伟达CEO黄仁勋提出的“黄氏定律”:GPU性能每6个月翻一倍,公司保持每年更新一次的产品发布节奏,该公司可以将对手远远甩在身后。
但这并不意味着市场没有任何空隙留给其他竞争者。这当中,有的继续追赶英伟达,成为市场上的“备选”,有的选择避开与英伟达正面交锋,从其他路径寻找新的机会。
成立于2023年的行云集成属于后者,其主要研发下一代针对大模型场景的GPU芯片。业内通常将算力看作计算、存储和网络互联的三项性能指标的结合。相较于其他公司单一追求GPU在计算参数指标上追赶英伟达,行云集成旨在通过相关设计提升GPU在存储上的性能表现。
季宇告诉界面新闻记者,这几年英伟达每代产品的计算性能指标在成倍提升,但相较于此前动辄5倍左右的增速有所放缓。与此同时,英伟达又在每代产品上投入大量资源去提升存储性能,包括HBM和其他先进方案。
在他看来,英伟达为了保持领先,在计算、存储上采取“齐头并进”策略,这在一定程度上造成了资源浪费:在AI大模型强调密集计算的场景,显卡存储是过剩的;在存储密集的场景,计算资源又是过剩的。这位曾入选“华为天才少年”的CEO,此前是海思昇腾芯片编译器专家,负责多个昇腾编译器项目。
季宇认为,现阶段OpenAI奉行的“Scaling law” 路线(增加模型的大小扩大训练数据集的规模、投入更多计算资源时,模型的性能通常会提高),推动AI行业发展的同时也带来了经济负担,毕竟对绝大多数公司来说,大量采购英伟达高端GPU是一笔不小的成本支出,未来规模扩张极易形成AI泡沫。
“大模型的商业探索根本上是硬件成本和模型Token质量(AI模型的基本单位)之间的相互妥协,此前业内提出的‘小模型’或者垂直模型,就是模型厂商考虑到硬件成本过高而选择的妥协方案。”季宇说。
今年上半年,国内AI模型厂商集体降价成为了行业新趋势,部分厂商下降幅度最高超过90%。季宇对此解释称,模型厂商售卖Token实际上是在售卖访存量,反映在硬件上是在售卖内存系统的访存带宽。对芯片设计而言,这直接与内存容量、带宽相关联。为满足这样的需求变化,内存容量将决定模型的业务,带宽成本将决定模型的性价比。“在这一前提下,相比继续砸重金卷计算资源,GPU芯片在存储、互联上有更大的提升空间。”
上个月,行云集成刚刚完成一笔数亿元的天使+轮融资,公司创办一年以来总计完成两轮融资,同创伟业、中科创星、春华资本、智谱AI等私募创投机构均有参与。公司的目标是推出一款低成本、高性价比的GPU,价格预计在万元左右,目前正处于设计阶段,计划在2026年推出正式产品。
面对GPU领域激烈的竞争态势,以及英伟达建立的强大生态,行云集成能否争得一席之地?
对此,季宇解释称,AI大模型爆火后第一波需求主要来自亚马逊、微软等云计算厂商,他们是抢购AI芯片的大客户。随着服务器越买越多,大模型已经变成了靠大量机器才能整体支持的单一超级业务。就像当初IBM的大型机,最早是专门为银行所需的高吞吐的数据处理需求设计一样,英伟达的GPU现阶段则针AI模型训练或推理来设计,且一家的软硬件生态已经成为了行业标准。云厂商对英伟达的依赖越来越深,话语权反而变弱,无法直接按照自身的业务场景需求设计产品,所以像微软、亚马逊、OpenAI都有布局自研芯片的计划,以增强自身话语权。
按照季宇的设想,如同英特尔x86架构曾推动个人用户手动组装计算机的潮流,继而掀起与IBM大型机闭合的“黑盒”生态竞争一样,行云集成希望通过建立开放兼容、可扩展的“白盒”生态与对手竞争,同时帮助云厂商及客户在与英伟达的共生关系里获得更大的产品和价格的话语权。
“我们并不是要用自己的产品去替代英伟达的芯片,而是客户用英伟达的芯片加上我们的补充芯片构成新组合,来满足自身特定的需求。”在他眼中,这是除英伟达之外的GPU厂商、CPU厂商及x86系统失去的阵地,也是行云集成这家新公司试图把握的机会。但其能否如愿,还要看产品和市场表现如何。