数智

大模型背景下,智能计算发展有哪些新态势?

副标题:

来源:人民邮电报 | 2024-04-26 14:21:25
人民邮电报 | 2024-04-26 14:21:25
原标题:
正在加载

当前,智能算力需求倍增,千卡计算集群成为大模型训练标配,巨量参数、海量数据是人工智能大模型研发的必经之路。以ChatGPT为代表的多模态AI大模型成为人工智能迈向通用智能的里程碑技术,2018年—2024年OpenAI公司先后发布GPT-3.5、GPT-4、Sora等大模型,参数规模突破万亿,模型训练数据量达TB级别,应用场景覆盖文生文、文生图、文生视频等多模态计算任务。参数规模在百亿到千亿区间、训练数据TB级别以上,已成为研发具备涌现能力大模型的必备条件。

2003年—2023年20年间智能算力需求增长百亿倍,远超摩尔定律提升速度。以ChatGPT为代表的人工智能大模型突破性进展激发全球智能计算发展热潮,大模型算力需求远超半导体增长速度,算力需求增长与芯片性能增长之间逐渐不匹配。根据公开数据测算,以AlexNet为代表的传统卷积神经网络模型训练计算量以5~7个月翻倍增长,当前基于Transformer的大模型计算量以4~5个月翻倍增长;然而芯片侧,CPU依旧延续摩尔定律以两年性能翻倍的速度发展,GPU芯片通过架构创新持续强化并行计算能力,实现十年千倍增长速度(int8算力)。现阶段,业界通过算力堆叠以及芯片、软件、互联等协同技术系统性能提升以满足大模型智能算力激增要求,千卡算力芯片构建的集群成为千亿参数大模型训练的标配。

芯片、软件、互联等技术创新是算力提升关键

多维度架构创新实现芯片性能倍增。与通用计算芯片不同,智能计算芯片微架构创新对其算力提升影响超过工艺制程。英伟达重视GPU微架构创新,2010年以来已累计实现9次架构升级,结合工艺升级实现了十年千倍的性能提升。最新Blackwell GPU架构内置第二代Transformer引擎和专用RAS安全引擎,全面提升计算效率和部署稳定性。第二代Transformer引擎支持微张量缩放和动态范围管理算法,扩展支持新型FP6、FP4精度计算,实现自动调整精度以达到芯片最优算力性能;RAS引擎基于人工智能的预防性维护技术完成芯片运行状态的诊断,最大化延长系统运行时间和降低运营成本。

深度学习框架和软件栈间接口高效适配成为芯片好用的关键。深度学习框架在支撑应用开发的同时,需要完成与底层芯片软件栈的高效适配。开发框架方面,提供分布式调度、访存优化、模型并行、数据并行等开发能力,支持分布式大模型高性能训练与推理已成为框架高效应用的关键。PyTorch采用类Python语法降低使用门槛,动态计算图设计思路便于灵活调试,加快模型的训练和优化过程,是当前算法应用开发的主力产品。软件栈方面,重点强化大模型加速库能力建设,通过向用户提供易用、高效的芯片编程接口,提高开发人员的工作效率,目前已推出针对深度学习计算、优化模型推理和加速科学计算、图形计算的专用加速库,满足多样化智能计算需求。

高速互联是大规模算力集群构建的基础。芯片间、服务器间、集群间的高速互联、无损网络能力建设,是支撑千卡、万卡智能算力集群计算需求的必备条件,英伟达新一代NVLink 5高带宽互联技术支持GPU间、GPU与Grace CPU直连,带宽从H100的900Gb/s提升到1800Gb/s,与NVLink交换机联合使用可最高支持576个GPU高速通信,是H100芯片最大直连数量的2倍,为支持万亿参数大模型训练提供基础。

巨头蜂拥智能计算赛道

寡头垄断与多体系并存

计算核心企业加快智能计算产品端到端体系化布局,抢占产业生态主导权。英伟达巩固GPU芯片性能优势的同时,向CPU、服务器架构、云平台等下游渗透,借助B200、H100芯片和DGX SuperPOD计算集群主导地位开辟云服务DGX Cloud,使企业能够立即访问生成式AI应用和训练模型所需的基础设施与软件。AMD强化“CPU+GPU”双芯片战略布局,CPU方面,通过改进分支预测、增加浮点支持指令等持续迭代升级芯片性能,GPU方面,发布基于CDNA 3架构的人工智能芯片MI300A和MI300X以抢占大模型算力市场份额。英特尔围绕高性能计算优势领域,逐步向GPU、ASIC等面向人工智能技术路线的产品体系布局,推出Habana Gaudi 2、Xe GPU等产品。但从全球智能计算芯片市场的规模来看,英伟达主导地位明显,市场占有率超80%,短期内领先的市场格局不会改变。

云平台及AI企业向底层芯片领域渗透,但仅少量自研芯片实际部署应用。谷歌、微软、亚马逊等云厂商依托云计算优势向底层芯片领域渗透。谷歌自研张量处理器芯片TPU历经五代迭代创新,于2023年8月发布新一代定制TPU v5e用于大模型训练和推理,目前已批量应用于自研LLaMA大模型训练推理任务中。微软于2023年11月发布Maia 100和Cobalt 100芯片,Maia 100专为Azure云生成式AI业务设计,提供自然语言处理、计算机视觉、推荐系统等计算服务,已在Bing和Office AI产品上完成测试;Cobalt 100是基于ARM架构的通用计算芯片,当前已为Microsoft Teams等应用提供支持;然而上述两款芯片至今仅支持微软自家云服务,尚未向合作伙伴和客户开放芯片产品供应。微软自研推理芯片Inferentia和训练芯片Trainium,2023年4月更新的Inferentia 2芯片进一步提升计算性能,通过多卡高速互联可完成千亿参数大模型推理任务。但从实际应用来看,国内外云厂商仅在有限的特定算法场景中使用自研芯片,对外提供的稳定、可靠的高性能智能算力服务均基于英伟达加速卡产品实现。

智能计算生态软硬深度绑定发展

计算企业均构建了与自研芯片相对应的端到端软件栈。目前国内企业均构建了与自研芯片相对应的端到端软件栈(含驱动层、编译器、加速库、工具链等),存在兼容英伟达CUDA生态和自研软件栈等技术路线。一方面,英特尔、AMD等企业在工具链API接口协议等方面与CUDA对应一致,便于把CUDA程序快速迁移到自研GPU硬件平台,降低芯片应用门槛,满足不同应用开发及调试需求。另一方面,谷歌自研TPU芯片应用时,自研软件栈编译器等工具,针对特定算法应用进行优化,实现处理效率和性能的提升。

国内软件生态竖井及碎片化发展,应用跨平台迁移难度大、成本高。“框架+工具链+硬件”紧密耦合的长链条,端到端紧耦合、接口互不兼容,致使上层应用与特定系统锁定,是形成繁多竖井生态的根本性因素。对于应用开发者而言,应用开发人员在使用多芯片异构算力进行AI算法实现过程中,不同厂家开发的框架应用程序接口、编程库和操作系统尚不统一,DSA架构专用芯片编程范式和软件栈互不兼容,需在OpenCL、OpenACC、OpenMP等多种模型范式间切换。开发框架、软件栈竖井式的开发生态增加了应用开发人员的开发成本,应用企业为开发出能够适配多种异构AI芯片算力的算法程序,需建立多支开发团队、维护多个程序版本,成为业界运用异构算力的主要瓶颈。

编辑:阮峥 责任编辑:
点击收起全文
返回央视网首页 返回数智频道
扫一扫 分享到微信
|
热点推荐
加载更多
正在阅读:大模型背景下,智能计算发展有哪些新态势?
扫一扫 分享到微信
手机看
扫一扫 手机继续看
A- A+

装修网小户型装修30平米简装装修合同简装酒多少钱一瓶长春别墅装修设计140平简装大概多少钱家装的公司排行榜长沙找好的装修公司创艺装饰公司钦州怎么样55平小户型装修设计重庆公装设计装修简装花多少钱影视墙简装效果图大全宁波出租房简装装修家装主要客户群体55平小户型装修设计天津公装装修简装汾酒12瓶一箱的多少钱北京店面的装修上海公装装饰公司 工装装饰整装装修福州诚鑫达装饰装饰装修的分类卫生间简装图片80平米简装图片室内水电安装多少钱简装90平米的房子需要多少钱大众速腾汽车装饰地板是黄色的装修风格丹东精装修新房香港通过《维护国家安全条例》两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”19岁小伙救下5人后溺亡 多方发声汪小菲曝离婚始末卫健委通报少年有偿捐血浆16次猝死单亲妈妈陷入热恋 14岁儿子报警雅江山火三名扑火人员牺牲系谣言手机成瘾是影响睡眠质量重要因素男子被猫抓伤后确诊“猫抓病”中国拥有亿元资产的家庭达13.3万户高校汽车撞人致3死16伤 司机系学生315晚会后胖东来又人满为患了男孩8年未见母亲被告知被遗忘张家界的山上“长”满了韩国人?倪萍分享减重40斤方法许家印被限制高消费网友洛杉矶偶遇贾玲何赛飞追着代拍打小米汽车超级工厂正式揭幕男子被流浪猫绊倒 投喂者赔24万沉迷短剧的人就像掉进了杀猪盘特朗普无法缴纳4.54亿美元罚金周杰伦一审败诉网易杨倩无缘巴黎奥运专访95后高颜值猪保姆德国打算提及普京时仅用姓名西双版纳热带植物园回应蜉蝣大爆发七年后宇文玥被薅头发捞上岸房客欠租失踪 房东直发愁“重生之我在北大当嫡校长”校方回应护栏损坏小学生课间坠楼当地回应沈阳致3死车祸车主疑毒驾事业单位女子向同事水杯投不明物质路边卖淀粉肠阿姨主动出示声明书黑马情侣提车了奥巴马现身唐宁街 黑色着装引猜测老人退休金被冒领16年 金额超20万张立群任西安交通大学校长王树国卸任西安交大校长 师生送别西藏招商引资投资者子女可当地高考胖东来员工每周单休无小长假兔狲“狲大娘”因病死亡外国人感慨凌晨的中国很安全恒大被罚41.75亿到底怎么缴考生莫言也上北大硕士复试名单了专家建议不必谈骨泥色变“开封王婆”爆火:促成四五十对测试车高速逃费 小米:已补缴天水麻辣烫把捣辣椒大爷累坏了

装修网 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化