OpenAI 的 ChatGPT 等生成式人工智能聊天机器人所展现的智能激发了个人和企业的想象力,人工智能突然成为最令人兴奋的技术创新领域。
人工智能被认为是改变游戏规则的因素,有可能改变我们生活的方方面面。从个性化医疗到自动驾驶汽车,从自动化投资到数字资产,人工智能带来的可能性似乎无穷无尽。
但尽管人工智能将带来变革,但这项新技术也带来了许多风险。虽然对恶意的天网式人工智能系统失控的担忧是多余的,但人工智能集中化的危险却并非毫无道理。随着微软、谷歌和 Nvidia 等公司在人工智能领域的不断探索,人们对权力集中在少数集中式参与者手中的担忧也变得越来越明显。
我们为什么要担心去中心化的人工智能?
垄断权力
集中式人工智能带来的最紧迫问题是少数科技巨头可能垄断整个行业。大型科技巨头已经在人工智能领域积累了非常大的市场份额,掌握着大量数据。他们还控制着人工智能系统运行的基础设施,从而能够扼杀竞争对手、阻碍创新并加剧经济不平等。
通过垄断人工智能的发展,这些公司更有可能对监管框架产生不公平的影响,并利用这些框架为自己谋利。这意味着,缺乏大型科技巨头的大量资源的小型初创公司将难以跟上创新的步伐。那些幸存下来并有望蓬勃发展的公司几乎肯定会被收购,从而进一步将权力集中在少数人手中。其结果是人工智能发展的多样性将减少,消费者的选择将减少,条件也将变得更不利,从而限制人工智能所承诺的用例和经济机会。
偏见和歧视
除了垄断控制之外,人们还对人工智能系统的偏见存在真正的担忧,而且随着社会越来越依赖人工智能,这些担忧将变得更加重要。
风险源于这样一个事实:组织越来越依赖自动化系统来做出许多领域的决策。例如,公司使用人工智能算法来筛选求职者并不罕见,而风险在于,有偏见的系统可能会根据种族、年龄或位置不公平地排除一部分候选人。保险公司还使用人工智能来设定保单利率,金融服务公司用来确定某人是否有资格获得贷款以及他们需要支付的利息金额,执法部门用来确定哪些地区更有可能出现更高的犯罪率。在所有这些用例中,有偏见的人工智能系统的潜在影响都极其令人担忧。
无论是针对少数群体的执法、歧视性贷款行为还是其他问题,集中式人工智能都有可能加剧社会不平等并导致系统性歧视。
隐私和监视
中心化人工智能系统带来的另一个风险是缺乏隐私保护。当少数几家大公司控制人工智能产生的绝大部分数据时,它们就有能力对用户进行前所未有的监控。最主要的人工智能平台积累的数据可用于以惊人的准确度监控、分析和预测个人行为,从而侵犯隐私并增加信息被滥用的可能性。
这在专制政府的国家尤其令人担忧,因为数据可以被用作武器,用于创建更复杂的工具来监控公民。但即使在民主社会,监控的增加也会带来威胁,爱德华·斯诺登披露的美国国家安全局棱镜计划就是一个例子。
企业还可能滥用消费者数据来增加利润。此外,当集中式实体积累大量敏感数据时,它们就更容易成为黑客的目标,从而增加了数据泄露的风险。
安全风险
集中式人工智能还可能引发国家安全问题。例如,人们有理由担心人工智能系统可能被各国武器化,用于进行网络战、从事间谍活动和开发新武器系统。人工智能可能成为未来战争的关键工具,从而增加地缘政治冲突的风险。
人工智能系统本身也可能成为攻击目标。随着各国对人工智能的依赖程度不断提高,此类系统将成为诱人的目标,因为它们显然是单点故障。如果人工智能系统被破坏,整个城市的交通流量可能会中断,电网可能会瘫痪,等等。
伦理
中心化人工智能的另一个主要担忧是道德问题。这是因为控制人工智能系统的少数几家公司将对社会的文化规范和价值观产生重大影响,而且往往优先考虑利润,从而引发进一步的道德问题。
例如,社交媒体平台已广泛使用人工智能算法来审核内容,以识别和过滤令人反感的帖子。令人担忧的是,算法最终可能会无意或有意地压制言论自由。
人工智能审核系统的有效性已经引发争议,许多看似无害的帖子被自动算法屏蔽或删除。这导致人们猜测,此类系统并没有出现问题,而是根据该平台试图宣传的政治叙事在幕后被操纵。
替代方案?去中心化人工智能
唯一合理的平衡集中式人工智能的方法是开发去中心化的人工智能系统,以确保技术控制权仍掌握在大多数人手中,而不是少数人手中。通过这样做,我们可以确保没有任何一家公司或实体对人工智能的发展方向产生重大影响。
当数千或数百万实体共同参与人工智能的开发和管理时,人工智能的发展将更加公平,更加符合个人的需求。其结果是人工智能应用将更加多样化,不同系统使用的模型选择几乎无穷无尽,而不是少数几个模型主导整个行业。
去中心化人工智能系统还意味着可以对大规模监控和数据操纵的风险进行制衡。中心化人工智能可以被武器化,并被用于违背多数人利益的方式,而去中心化人工智能则可以防范这种压迫。
去中心化人工智能的主要优势在于每个人都能控制技术的发展,防止任何单一实体对其发展产生过大的影响。
如何实现人工智能的去中心化
分散式人工智能需要重新思考构成人工智能技术堆栈的各层,包括基础设施(计算和网络资源)、数据、模型、训练、推理和微调过程等元素。
如果底层基础设施仍然完全由亚马逊、微软和谷歌等云计算巨头集中化,我们就不能只寄希望于开源模型。我们需要确保人工智能的各个方面都是去中心化的
实现 AI 堆栈去中心化的最佳方式是将其分解为模块化组件,并根据供需情况围绕这些组件创建市场。Spheron 就是一个典型案例,它创建了一个任何人都可以参与的去中心化物理基础设施网络 (DePIN)。
借助 Spheron 的 DePIN,每个人都可以自由分享未充分利用的计算资源,本质上是将其出租给那些需要基础设施来托管其 AI 应用程序的人。因此,使用配备 GPU 的强大笔记本电脑的平面设计师可以在不将其用于自己的工作时将其处理能力捐赠给 DePIN,并获得代币奖励。
这意味着人工智能基础设施层将变得广泛分布和去中心化,没有任何一家供应商能够控制。它由区块链技术和智能合约实现,可提供透明度、不变性和自动化。
DePIN 还可以用于开源模型和底层数据。例如,可以在Qubic等去中心化网络上共享训练数据集,这将确保数据提供者每次被人工智能系统访问其信息时都能获得奖励。
为了确保访问和权限分散,技术堆栈的每个部分都以这种方式分布。然而,人工智能行业目前难以提供这种程度的分散性。尽管开源模型在人工智能开发人员中非常受欢迎,但大多数人仍然依赖专有云网络,这意味着训练和推理过程高度集中。
但去中心化有很强的动机来赢得胜利。例如,DePIN 网络的主要优势之一是它们有助于降低管理费用。由于像 Spheron 这样的网络不依赖中介,参与者不需要支付任何费用或与第三方分享收入。此外,与面临盈利压力的公司相比,他们在定价方面更有竞争力。
权力下放必将获胜
人工智能的未来潜力巨大,但也危机重重。虽然人工智能系统的能力在过去几年里有了显著提升,但大部分进步都是由实力雄厚的公司取得的,这也导致它们对行业的影响力不断增强。为此,我们要付出代价,不仅仅是金钱方面的。
唯一合理的选择是推动更多采用去中心化的人工智能,这可以提高人工智能的可访问性并确保更大的灵活性。通过让每个人都平等地参与人工智能的发展,我们将看到更多多样化、有趣和有用的应用程序,这些应用程序可以让每个人平等受益,并将用户放在第一位。
构建去中心化的 AI 未来需要 AI 堆栈各层的大量协调与合作。幸运的是,参与者有强大的激励机制来做到这一点。而且,激励机制不仅仅是金钱。