ChatGPT在全球的关注度持续火热,再次将AI产业推到聚光灯下,科技巨头争相谋局落子,继 微软 、谷歌之后,国内企业 百度 、 阿里巴巴 等也先后发布大模型,并进行用户测试和企业应用接入。随着AI产业迎来“iPhone时刻”,算力需求正在持续释放,以AI服务器核心零部件GPU(图像处理器、加速芯片)为代表的供给端走俏,其价格也在不断上涨,而在 AI芯片 GPU市场占据绝对优势的 英伟达 也赚得盆满钵满。 多位业内人士在接受《中国经营报》记者采访时表示,大型模型通常需要庞大的算力和存储资源来进行训练,GPU已成为 AI 加速芯片通用性解决方案,越来越多的企业和个人开始使用GPU来训练大型深度学习模型。这种需求的增加可能导致GPU的价格上涨,从而导致显卡价格的上涨。此外,由于供应链问题、 半导体 短缺等因素的影响,显卡价格的波动也可能受到一定程度的干扰。 英伟达 大秀肌肉 AI场景需要多核、高并发、高带宽 AI芯片 。 AI芯片 ,也被称为AI加速器或计算卡,即专门用于处理 人工智能 应用中的大量计算任务的模块。当前,AI芯片主要分为GPU 、FPGA,及以TPU、VPU为代表的ASIC芯片,而 GPU凭借其高性能、高灵活度特点成为AI 加速方案首选。据 IDC 数据,预计到2025年,GPU仍将占据AI芯片80%市场份额。 资料显示,2018年OpenAI开发的GPT-1的预训练大模型参数为1.1亿,2019年发布的GPT-2提高至15亿,2020年GPT-3的预训练大模型参数已经提高至1750亿。而为了训练ChatGPT,OpenAI构建了由近3万张 英伟达 V100显卡组成的庞大算力集群,GPT-4更是达到了100万亿的参数规模,其对应的算力需求同比大幅增加。 TrendForce分析认为,要处理近1800亿参数的GPT-3.5大型模型,需要2万颗GPU芯片,而大模型商业化的GPT需要超过3万颗。GPT-4则需要更多。 不仅如此,目前主流 AI 厂商都进入了“千亿参数时代”,多采用了英伟达的 GPU。以 科大讯飞 星火认知大模型为例,其使用了英伟达的T4 Tensor Core GPU进行训练。除了T4 Tensor Core GPU, 科大讯飞 还使用了其他类型的GPU和其他硬件设备来支持其深度学习平台的开发和应用。这些硬件设备包括英伟达的PaddlePaddle、NVIDIA Tesla V100、AMD EPYC等,以及多种CPU、内存、网络设备等。 昆仑万维 集团CEO方汉也表示: “超过千亿级别的大模型,它的训练大概需要1000—2000张A100的卡,没有2000张A100的卡,实验都做不了。” 招商证券
阅读更多(Read More)