DeepSeek所用GPU或比尖端产品便宜1~3成
2025/02/11 英伟达的“H100”GPU。对华出口受到限制(图片由该公司的日本法人提供) 随着中国新兴企业DeepSeek宣布以低成本开发出AI模型,图形处理器(GPU)的价格备受关注。有分析认为,DeepSeek使用的美国英伟达的GPU市场价格比美国企业使用的尖端产品便宜1~3成左右。似乎并不是极端便宜。 据悉,DeepSeek开发出媲美美国OpenAI的“ChatGPT”的AI模型时,使用的是英伟达的“H800”芯片。相当于美国企业使用的“H100”的廉价版。 美国政府在2022年限制了AI芯片的对华出口,随着H100等成为受管制对象,英伟达向中国供应了降低性能的H800(现在H800也成为受管制对象)。AI公司KARAKURI的董事CPO中山智文解释称,“与H100相比,H800的计算速度只有一半”。 英伟达没有公开价格,虽然实际的交易价格会根据购买数量和合同条件而发生很大变化。但多位半导体交易相关人士透露,H800约为400万~500万日元(约合人民币19.23万元~24.03万元),H100约为550万日元(约合人民币26.44万元)。 据悉,DeepSeek使用了2000~3000块H800,开发出了AI模型“V3”。使用的GPU的总额单纯计算为80亿~150亿日元(约合人民币3.85亿元~7.21亿元)。 DeepSeek解释称,V3的开发费用为557.6万美元。假设让AI学习278.8万小时,每小时费用为2美元,这个费用与美国的AI模型相比不到10分之1。也就是说,GPU的价格差异并不是成本的差异。 作为日本AI研究第一人的东京大学教授松尾丰指出,“AI模型的开发需要数十次、数百次的反复试验,在约280万小时的学习之前也花费了时间,这样考虑符合逻辑。花在这上面的时间和GPU本来就应该纳入成本之中”。 也有观点认为,DeepSeek通过租赁方式降低了GPU的费用。 当然,这并不意味着不需要尖端GPU。英国调查公司Omdia的高级咨询总监南川明表示,“美国企业在资金实力和人才方面并未落后,将推进开发的高效化”。今后围绕AI的开发竞争,使用什么样的GPU以及如何使用的问题或将更加受到关注。 日本经济新闻(中文版:日经中文网)井泽瞳

2025/02/11

随着中国新兴企业DeepSeek宣布以低成本开发出AI模型,图形处理器(GPU)的价格备受关注。有分析认为,DeepSeek使用的美国英伟达的GPU市场价格比美国企业使用的尖端产品便宜1~3成左右。似乎并不是极端便宜。
据悉,DeepSeek开发出媲美美国OpenAI的“ChatGPT”的AI模型时,使用的是英伟达的“H800”芯片。相当于美国企业使用的“H100”的廉价版。
美国政府在2022年限制了AI芯片的对华出口,随着H100等成为受管制对象,英伟达向中国供应了降低性能的H800(现在H800也成为受管制对象)。AI公司KARAKURI的董事CPO中山智文解释称,“与H100相比,H800的计算速度只有一半”。
英伟达没有公开价格,虽然实际的交易价格会根据购买数量和合同条件而发生很大变化。但多位半导体交易相关人士透露,H800约为400万~500万日元(约合人民币19.23万元~24.03万元),H100约为550万日元(约合人民币26.44万元)。
据悉,DeepSeek使用了2000~3000块H800,开发出了AI模型“V3”。使用的GPU的总额单纯计算为80亿~150亿日元(约合人民币3.85亿元~7.21亿元)。
DeepSeek解释称,V3的开发费用为557.6万美元。假设让AI学习278.8万小时,每小时费用为2美元,这个费用与美国的AI模型相比不到10分之1。也就是说,GPU的价格差异并不是成本的差异。
作为日本AI研究第一人的东京大学教授松尾丰指出,“AI模型的开发需要数十次、数百次的反复试验,在约280万小时的学习之前也花费了时间,这样考虑符合逻辑。花在这上面的时间和GPU本来就应该纳入成本之中”。
也有观点认为,DeepSeek通过租赁方式降低了GPU的费用。
当然,这并不意味着不需要尖端GPU。英国调查公司Omdia的高级咨询总监南川明表示,“美国企业在资金实力和人才方面并未落后,将推进开发的高效化”。今后围绕AI的开发竞争,使用什么样的GPU以及如何使用的问题或将更加受到关注。
日本经济新闻(中文版:日经中文网)井泽瞳