新闻详情

DeepSeek、GPT-4与《哪吒2》碳排放比拼,谁是“低碳冠军”?

发布时间:2025-02-08

关键词:人工智能、大模型、智能助手

近日,AI领域的后起之秀DeepSeek因强大的性能和独特的训练方式,引发全球AI界热议。与此同时,《哪吒2》凭借精美的特效和动人的故事,一路爆火,成为中国电影票房冠军。此前,GPT-4作为OpenAI的旗舰产品,也在全球范围内掀起了AI应用的热潮。那么,这三者在耗电量和碳排放方面如何呢?今天,我们来算算这笔账。

 

一、DeepSeek-V3训练的碳排放

1. DeepSeek-V3训练过程

DeepSeek-V3是一个强大的混合专家 (MoE) 语言模型。为了实现经济高效的推理和训练,其采用了多头潜在注意力 (MLA) 和 DeepSeekMoE 架构,还开创了一种无辅助损失的负载平衡策略,设置了多令牌预测(MTP)。这些设计使它能支持128K长文本处理,即可以一次性处理科研论文、长篇小说等复杂的长文本;使模型同时预测多个未来的输出token,即一次性生成多个字而非逐字生成,增强文本连贯性,大大提升代码生成、数学推理等方面的效率和性能。

2.碳排放计算

《DeepSeek-V3技术报告》部分截图


根据官方发布的技术报告,DeepSeek-V3完整训练时间为278.8万H800 GPU小时。

GPU功率:假设每块H800 GPU的功率为300瓦

单卡综合功耗:300W(显卡) × 1.3(散热损耗) = 390W

总功率:2788K GPU小时 × 0.39千瓦 =1087320 kWh≈108.7万度

全国电力平均二氧化碳排放因子:0.5366kgCO2/kWh

碳排放:1087320kWh×0.5366kgCO2/kWh= 583455.912 kg≈583.5吨

 

二、《哪吒2》特效制作的碳排放

1.特效制作过程

《哪吒2》的特效制作堪称“巨量级”。导演饺子为了追求完美,把特效量加到了极致,制作量相当于两到三部动画电影。影片中有1948个特效镜头,比如海底炼狱场景里,9800条动态锁链相互纠缠,每秒钟产生27万次物理碰撞运算。“洪流大战”这场戏中,更是有2亿多个角色出现在同一帧画面上。


2.碳排放计算

服务器配置:假设使用1000台服务器进行特效渲染,每台服务器功率为1.5千瓦

渲染时间:假设每天工作12小时,整个特效制作周期为1年(365天)

总功率:1000台 × 1.5千瓦 = 1500千瓦

总耗电量:1500千瓦 × 12小时 × 365天 = 6570000kWh=657万度

全国电力平均二氧化碳排放因子:0.5366kgCO2/kWh

碳排放:6570000kWh ×0.5366kgCO2/kWh= 3525462 kg ≈3525吨

 

三、GPT-4训练的碳排放

美国OpenAI训练大语言模型GPT-4时,为了完成一次训练,需要使用大约25000块英伟达A100 GPU,并且整个训练过程需要约三个月的时间,折合54M A100 GPU小时。它的训练用的是‌A100 80 GB显卡,峰值功耗为400瓦,稳定工作的功耗大约为250W到300W。按300W的功耗计算,GPT-4完整训练一次需要耗电1620万千瓦时,换算为碳排放8692920kg,约为8692吨。

 

四、数据对比分析



通过上述数据可以看出,DeepSeek-V3训练的碳排放最低,约为《哪吒2》的17%、GPT-4的7%。


DeepSeek-V3之所以有如此优秀的表现,主要得益于其高效架构设计(如多头潜在注意力和混合专家架构)、低精度训练以及优化的流水线并行策略。这种突破有力地证明了人工智能的进步与高能耗、高碳排并非必然挂钩,让我们看到了AI技术创新的无限潜力。


尽管目前AI模型训练和动画特效制作都是现代科技的“耗电大户”,但DeepSeek-V3以其高效能低能耗的突破,昭示了科技进步与创新正逐步重塑这一现状,引领行业走向更加绿色可持续的未来。


所属分类:公司新闻
公司新闻
行业动态
能源知识
请您留言

千瓦科技(上海)有限公司
400 850 3050