众所周知,自从ChatGPT火爆之后,引发了千模大战,特别是中国市场,几十家企业涌入这个赛道,搞类似于ChatGPT这样的AI大模型。
百度、阿里、腾讯、华为、讯飞这样的大企业在搞,我们能理解,很多小企业,初创企业也迈入进来,搞起了AI模型。
据统计,短短半年左右的时间,国内已有超过80个大模型公开测试……
不过,这些大模型谁能笑到最后,却无人得知。
而大家模仿和学习的ChatGPT,已经遇到了难题,从6月份开始,ChatGPT的网站,不管是流量,还是独立访问数,以及访客花费的时间,均下滑了10%以上。
不仅如此,火爆的投资圈,也开始谨慎评估大模型,因为大模型泡沫太大了。
而近日,更是有一份报告,给了大模型迎头泼了一盆冷水,报告称OpenAI 仅运行其人工智能服务ChatGPT每天就要花费约 70 万美元。
而商业化不给力,OpenAI 目前一直处于烧钱的状态,按照烧钱速度计算,如果 OpenAI 不能很快获得更多资金,那么很可能在 2024年底之前,OpenAI就得申请破产。
报告也许有点夸张,但却也是实情,因为搞AI大模型确实太烧钱了。
前期投入非常大,需要的高端GPU数量太多,比如GPT-4可能在大约10000-25000张A100上进行了训练,而根据马斯克的说法,GPT-5可能需要30000-50000个H100。
A100售价超过1万美元,仅前期训练这一块的投资就是数亿美元。
训练过程中,除了GPU的投入外,还需要大量的资金,比如还包括训练中的人工标注等等,也是不小的开支。
后期运营更是需要海量的资金,建立庞大的计算集群等,维持计算集群的运行等等,ChatGPT目前运营就需要70万美元1天。
前面已经说过,国内目前已经有超过80家大模型在测试了,还有更多的没有在测试,还处于研发状态的大模型,但实际上,我们真的需要这么多的大模型么?这是要打一个问号的。
更何况,如果连ChatGPT都撑不住,要破产的话,那它的模仿者,又有多少能够活下来呢?