ZPY博客

AI算力是什么意思?为什么AI需要这么大算力?

AI算力是什么意思?为什么AI需要这么大算力?

现在AI大模型越来越火,大家经常听到"AI算力不够""算力涨价",很多新手朋友看不懂:AI算力到底是什么?为什么训练一个大模型需要那么大算力?

这篇文章用大白话给你讲明白。

---

AI算力是什么意思?

简单说,AI算力就是AI训练和推理需要的计算能力

AI大模型是一堆神经网络,里面有几十亿上百亿参数,训练模型需要做海量的乘法加法计算,这些计算都需要芯片来完成,芯片的计算能力就是算力。

举个例子:

AI算力就是AI芯片"计算"的能力,算力越大,算得越快,能训练更大的模型。

数据中心AI算力服务器

---

为什么AI需要这么大算力?

训练一个千亿参数大模型,需要的算力相当于你家里电脑几十年不停地算,为什么需要这么多?

我们拿GPT来说:

简单说:模型越大,数据越多,需要的算力就越多。现在模型越来越大,所以大家都觉得算力不够。

---

AI算力主要用在什么地方?

AI算力主要用在两个地方:

1. 训练大模型

就是从头训练一个大模型,这是最吃算力的。几千块显卡一起跑,跑几个月,电费都要花几百万上千万。

2. 推理

模型训练好了,用户来提问,模型要计算出回答,这个过程叫推理。推理也需要算力,用户越多,模型越大,需要的算力越多。

现在ChatGPT每天几千万用户提问,需要几万张显卡做推理,算力需求很大。

---

算力单位是什么?怎么算?

常用的算力单位:

训练一个GPT-3级别的大模型,大约需要几百PFLOPS,也就是几百万亿次每秒,需要几百张A100显卡才能达到。

---

为什么现在算力这么紧张?

最近几年AI算力一直紧张,主要原因:

1. 大模型参数越来越大 → 几年前是亿级,现在是千亿级万亿级,参数涨了一千倍
2. 用AI的人越来越多 → ChatGPT出来之后,大家都用AI,推理需求暴涨
3. 大公司都在抢显卡 → 巨头们都在囤GPU,显卡产能跟不上,所以涨价,缺货

---

AI算力不够,对普通用户有什么影响?

但对普通用户来说,你不用管算力够不够,用就是了,这些问题都是厂商要解决的。

---

总结

一句话记住:

> AI算力就是AI的"发动机马力",模型越大,需要马力越大,马力越大跑得越快。

现在AI大模型越来越大,所以需要的算力越来越多,这就是为什么大家天天说算力不够。对我们普通用户来说,不用纠结算力这些底层问题,好用就完了,这些问题交给芯片厂和AI公司解决。

你对AI算力还有什么疑问?欢迎在评论区留言。