ChatGPT日耗电超50万千瓦时,AI能耗问题引关注
【HowToTech科技】3月10日消息,热门聊天机器人ChatGPT的日处理请求量已突破2亿次,而其惊人的电量消耗也随之浮出水面。据The New
Yorker报道,ChatGPT每天的电量消耗可能高达50万千瓦时,这一数字令人咋舌。要知道,美国普通家庭的日均用电量仅为29千瓦时,这意味着ChatGPT的能耗是普通家庭的近1.7万倍。
随着生成式人工智能技术的广泛应用,其电量消耗问题日益凸显。荷兰中央银行数据科学家Alex de
Vries在《焦耳》期刊上发表的论文中指出,如果谷歌将其应用于所有搜索,每年的电量消耗将达到惊人的290亿千瓦时。这个电量足以匹敌肯尼亚、危地马拉和克罗地亚三国的年总发电量。
然而,要准确评估蓬勃发展的AI行业的实际电量消耗却并非易事。据HowToTech科技了解,尽管大型科技公司在AI领域处于领先地位,但它们对于自身的能源消耗情况却讳莫如深。此外,不同的人工智能模型在运行方式上也存在巨大差异,这使得电量消耗的估算变得更加复杂。
尽管如此,de Vries还是根据英伟达公布的数字进行了粗略计算。据CNBC报道援引New Street
Research的数据,英伟达在图形处理器市场份额中占据了约95%的份额。de
Vries估计,到2027年,整个AI行业的电量消耗将达到85至134太瓦时之间。这是一个相当可观的数字,甚至可能占到全球电量的一半左右。
与世界上一些耗电量最大的企业相比,AI行业的电量消耗也显得尤为突出。据Businessinsider基于消费者能源解决方案报告的计算,三星的年耗电量接近23太瓦时,而谷歌等科技巨头的数据中心、网络和用户设备每年的耗电量也略高于12太瓦时。微软的耗电量则略高于10太瓦时。尽管如此,与AI行业未来的电量消耗相比,这些数字仍然相形见绌。
延伸阅读:
OpenAI 测试长输出版 GPT-4o:单次输出达64K tokens
【HowToTech科技】8月1日消息,OpenAI在7月29日透露,他们正在对一款名为GPT-4o Long Outp...
ISC.AI2024数字安全峰会:360、华为、微软等共话安全+AI新挑战
7月31日,ISC.AI 2024数字安全峰会在北京国家会中心顺利召开。峰会以“打造安全大模型,引领安全行业革命”为主题...
ISC.AI2024开幕 周鸿祎发布国内首个免费安全大模型
“把大模型拉下神坛就要把免费贯彻到底,今天我在行业里第一个宣布安全大模型免费。”7月31日,ISC.AI2024第十二届...
实时对话更自然,OpenAI 向部分付费订阅用户开放 GPT-4o 语音模式
【HowToTech科技】7月31日消息,OpenAI于当地时间30日宣布,即日起GPT-4o的语音模式(注:Alpha...