阿P聊科技-发微头条-新闻资讯-贝壳科技
当前位置:首页>>新闻资讯

阿P聊科技-发微头条

  • 2023-07-31 14:18:52
  • 超级管理员

都叫AI芯片,但其实很不一样

最近跟人聊天,不提到AI都不好意思,但凡沾点IT圈,谈AI必提“大模型”。人工智能一夜之间就从最前沿的科技领域,变成妇孺皆知的大众话题。但真正因AI而火爆的是芯片市场,AI芯片的热度已经远超CPU好几倍。市场上数百种AI芯片都是竞品么?其实AI芯片之间差别很大,主要有三种类型:GPU、ASIC和FPGA。

GPU大家不陌生,英伟达起家就是靠做支持3D游戏的GPU(显卡),GPU的特点是高并发,能同时进行海量数据的计算。当下的大模型AI训练,动辄就是千亿参数量。对算力也提出了指数级增长的的需求,GPU的特点正好适合。ChatGPT 3有1750亿参数量,我国中科院的紫东太初也突破了千亿参数量,训练这些大模型,需要的不是几十颗上百颗芯片,而是几千几万颗芯片同时工作。

ASIC是专用集成芯片,特点是把算法设计到芯片中,并且芯片可以集成存储与计算功能于一身,因此在特定场景或专属计算方式下能够做到很好的算力效率。但问题也同样明显,那就是灵活性不足,换一种算法或场景,轻者效率下降,严重的根本无法支持。而且由于高度集成,芯片的开发难度与周期都比较长。

FPGA能够弥补ASIC灵活性的问题,能够通过编程支持各种算法,而且FPGA的结构相对简单,功耗很低,但带来的劣势是绝对性能不足。在汽车、移动终端等需求性能功耗比的场景下,应用前景十分广阔。

说回当下最热门的大模型AI,更多用到的还是GPU芯片,当前大模型训练领域,GPU的使用占比超过95%,推理对芯片性能要求略低,但GPU也占到接近90%的市场。目前国内起步比较早的寒武纪和华为昇腾,都是ASIC类型的AI芯片,对大模型市场的支撑有限。未来国内大模型AI的支持,还是要看海光、壁仞科技等厂商,据悉龙芯也将在2024年推出通用GPU产品。期待中国厂商的全面崛起。


  • 关注微信

猜你喜欢

微信公众号