过去两年,人工智能能力呈爆炸式增长,ChatGPT、Dall-E 和 Midjourney 等大型语言模型 (LLM) 已成为日常使用的工具。当您阅读本文时,生成式人工智能程序正在回复电子邮件、撰写营销文案、录制歌曲以及根据简单输入创建图像。 

更令人瞩目的是个人和公司拥抱人工智能生态系统的速度。麦肯锡最近的一项调查显示,在至少一个业务功能中采用生成式人工智能的公司数量在一年内翻了一番,达到 65%,高于 2023 年初的 33%。 

然而,与大多数技术进步一样,这一新兴创新领域也面临诸多挑战。训练和运行人工智能程序是一项资源密集型工作,就目前情况而言,大型科技公司似乎占了上风,这带来了人工智能集中化的风险。 

AI能力的增长速度快于硬件:去中心化可以缩小差距吗?

人工智能发展中的计算限制 

根据世界经济论坛的一篇文章,对人工智能计算的需求正在加速增长;维持人工智能发展所需的计算能力目前以每年 26% 至 36% 的速度增长。   

Epoch AI 最近的另一项研究证实了这一轨迹,预测显示,训练或运行人工智能程序很快将花费数十亿美元。 

Epoch AI 研究员 Ben Cottier 指出: “自 2016 年以来,最大规模 AI 训练的成本每年增长两到三倍,到 2027 年甚至更早,这一成本将达到数十亿美元。”

我认为,我们已经到了这个地步。微软去年向 OpenAI 投资了 100 亿美元,最近有消息称,这两家公司正计划建立一个数据中心,用于托管一台由数百万个专用芯片驱动的超级计算机。成本是多少?高达 1000 亿美元,是初始投资的十倍。 

其实,微软并不是唯一一家大手笔投入 AI 计算资源的科技巨头。其他参与 AI 军备竞赛的公司,包括谷歌、Alphabet 和 Nvidia,都在 AI 研发上投入大量资金。 

虽然我们可以同意结果可能与投入的资金相匹配,但很难忽视这样一个事实:人工智能开发目前是一项“大科技”运动。只有这些财力雄厚的公司才有能力为人工智能项目提供数百或数千亿美元的资金。 

这就引出了一个问题:如何才能避免 Web2 创新因少数公司控制创新而面临的同样陷阱? 

斯坦福大学 HAI 副主任兼研究系主任 James Landay 是此前曾对此情景发表过看法的专家之一。Landay 认为,对 GPU 资源的争夺以及大型科技公司优先在内部使用 AI 计算能力将引发对计算能力的需求,最终促使利益相关者开发更便宜的硬件解决方案。

在中国,由于中美芯片战争导致中国企业无法无缝获取关键芯片,政府已经开始加大对人工智能初创企业的支持力度。今年早些时候,中国地方政府推出了补贴,承诺为人工智能初创企业提供 14 万至 28 万美元的计算代金券。此举旨在降低与计算能力相关的成本。

分散人工智能计算成本

纵观人工智能计算的现状,有一个主题是不变的——该行业目前是集中化的。大型科技公司控制着大部分计算能力以及人工智能程序。事物变化越多,它们保持不变的程度就越大。 

好的一面是,这一次,由于Qubic Layer 1 区块链等去中心化计算基础设施,情况可能会真正发生改变。这个 L1 区块链使用一种先进的挖矿机制,被称为有用的工作量证明 (PoW);与比特币的典型 PoW 不同,后者仅将能源用于保护网络,而 Qubic 的 uPoW 将其计算能力用于生产性 AI 任务,例如训练神经网络。 

简单来说,Qubic 正在通过摆脱当前的模式(创新者只能使用自己拥有的硬件或从大型科技公司租用的硬件),从而实现 AI 计算能力的去中心化。相反,这个 L1 正在利用其矿工网络(可能运行数万个矿工)来提供计算能力。 

尽管与让大型科技公司处理后端事务相比,采用分散式方法来获取 AI 计算能力更具技术性,但这种方式更经济。但更重要的是,只有由更多利益相关者推动 AI 创新,而不是像目前行业似​​乎依赖少数参与者的状态,这才是公平的。 

如果这些公司全部倒闭了会怎么样?更糟糕的是,这些科技公司在改变生活的技术进步中已经证明了自己不值得信赖。 

如今,大多数人都对数据隐私侵犯感到愤怒,更不用说社会操纵等其他相关问题。借助去中心化的人工智能创新,人们将更容易检查发展情况,同时降低进入成本。  

结论 

人工智能创新才刚刚起步,但获取计算能力的挑战仍然是一大难题。此外,大型科技公司目前控制着大部分资源,这对创新速度是一个巨大的挑战,更不用说这些公司最终可能会对我们的数据(数字黄金)拥有更大的控制权。  

然而,随着去中心化基础设施的出现,整个人工智能生态系统更有机会降低计算成本,并消除大型科技公司对 21 世纪最有价值的技术之一的控制。