;
2023年,AI大模型实实在在地“从年头火到年尾”。自ChatGPT成为AI大模型的第一个“出圈”应用,以聊天机器人的形式展示出AI大模型应用的强大能力后,全球各大科技公司都在加速推动AI大模型的应用,当然也吸引了众多初创公司入局。一时间各种AI大模型涌现,无论是行业专用大模型还是通用认知大模型,都为更多创新的AI应用提供了技术支持。
AI算力需求的提升给中国本土芯片厂商的发展提供了较大的空间,带来新的机遇。IDC预计,2023年中国人工智能芯片出货量将达到133.5万片,同比增长 22.5%。
在面临广阔机会的同时,大模型时代,我国AI芯片也面临着新的发展挑战。
首先,与国际领先AI芯片差距较大,以英伟达最新发布的H200 GPU为例,性能已经达到其A100 GPU近5倍。而我国AI芯片的大模型集群训练性能,只有个别接近A100/A800,大多数不到其性能的50%,这也意味着,我国AI芯片在大模型训练性能方面,与国际领先水平约是3年的代际差距。
其次,生态方面,英伟达的CUDA经过17年、累计超过100亿美元的资金投入,全球开发者已经超过300万,成为全球AI开发处于垄断地位的基础库。反观国内AI芯片企业,整体市场占有率加起来不超过10%,且各家AI芯片软件各异、生态零碎割裂。
此外,在当前时代背景下,我国AI芯片产能受阻、向高端芯片进阶关键技术受限等,也在一定程度上制约了AI芯片的发展。
存算一体,正成为深圳算力产业链创新发展的新机遇,并在积极落地之中。
2023年4月2日,在第二届中国产业链创新发展峰会新一代信息技术产业发展论坛上,北京大学深研院信息工程学院副院长杨玉超表示,深圳将立足于相对完善的产业链集群,从先进工艺与封装、创新电路与架构、EDA工具链、软件与算法生态这四个方面解决存算一体在产业化应用上的挑战。
今年4月,中国大模型正式爆发,未来,对于AI大算力芯片的需求只增不减。
现有的大模型,正向着英伟达A100大算力芯片狮子大开口:
故例如商汤等AI厂商,正把眼光放置在国产AI大算力芯片上:2023年4月10日商汤披露,目前商汤所用的国产化AI芯片占比达到总体的10%。这无疑,将加速国内AI芯片厂商的成长m6米乐网官网。
英伟达表示,未来将从GPU架构出发,走向“GPU+DPU的超异构”:推出NVLink-C2C 、支持UCLe+芯粒+3D封装;推出Thor“超异构”芯片2000T;
AMD表示,未来硬件创新突破更难,将走向“系统级创新”,即从整体设计的上下游多个环节协同设计来完成性能的提升。
免责声明:
1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。
2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。
3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处米乐m6官网登录入口。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。