CoreWeave的增长依然是惊人的,即便是调低了5亿美元的预计收入,也比该公司2022年约2500万美元的收入增长了25倍左右。CoreWeave预计明年的收入为23亿美元。
CoreWeave表示,到2026年,该公司签署的云服务合同将超过70亿美元,高于今年早些时候的50亿美元。
能耗难题
GPU的瓶颈来自供应商英伟达的产能,而承载GPU的数据中心的瓶颈则是高昂的能耗。
云服务商一般通过购买或租用数据中心的方式在托管包含GPU的服务器,但英伟达H100比其早期的芯片消耗更多的能量,单个H100芯片的功耗高达700瓦。
本周早些时候,在加州圣何塞举行的一次行业会议上,数据中心运营商表示,他们正在努力跟上人工智能的发展,但很难建立和运行足够多的数据中心,以容纳英伟达最新的芯片,并满足云服务商的需求。
对于能耗问题,CoreWeave表示,它已经在三个数据中心获得了约15兆瓦的电力,另外三个数据中心计划在2023年开放,这可能使容量达到约40兆瓦。该公司表示,明年其数据中心的容量可能会扩大到70兆瓦,足以容纳10万个H100芯片。
华尔街见闻此前曾介绍,数据中心为训练AI模型产生的能耗将为常规云工作的三倍,2030年,美国数据中心的电力需求预计将以每年约10%的速度增长。
AI服务器的功率较普通服务器高6-8倍,这对于电源的需求也将同步提升,通用型服务器原来只需要2颗800W服务器电源,而AI服务器的需求直接提升为4颗1800W高功率电源,服务器能耗成本直接3100元直接飙升到12400元,大涨3倍。
据咨询机构Tirias Research建模预测,到2028年数据中心功耗将接近4250兆瓦,比2023年增加212倍,数据中心基础设施加上运营成本总额或超760亿美元。
该机构称,生成式AI带来的种种创新功能,都是以处理性能和功耗方面的高昂成本为代价。
因此,虽然人工智能的潜力可能是无限的,但物理和成本最终可能是界限。