读 Vitalik的新文 “AI 为引擎,人类为方向盘:治理的新范式”

2025年2月28日,Vitalik 发布了一篇名为“AI 为引擎,人类为方向盘”(原文 https://vitalik.eth.limo/general/2025/02/28/aihumans.html)的文章探讨了一种利用人工智能优化治理的新模式。文章作者认为,传统的民主结构虽然能够避免权力集中,集思广益,但也存在选民素质参差不齐、参与度低、易受操控等问题。为了解决这些问题,作者提出了一个设想:利用人工智能作为“引擎”,人类作为“方向盘”,即人类提供少量但高质量的决策输入,人工智能则负责执行和优化。

为何不直接让单一AI掌权?

文章首先驳斥了让单一AI模型直接掌权的方案。作者认为,这种方案虽然简单,但无法满足长期机构治理所需的“可信中立性”。具体而言,单一AI模型存在以下问题:

    隐含偏见: AI模型在训练过程中不可避免地编码了大量特定人群和结果偏好。

    黑箱操作: 即使开源,AI模型的复杂性也使其内部运作难以理解。

    频繁更新: AI技术的快速发展要求模型频繁更新,不利于机构的稳定性。

因此,作者主张采用“规则为游戏,AI为玩家”的模式,即设计一套简单的规则,让各种AI模型在其中自由竞争。这种模式的优势在于:

    避免单一模型垄断: 形成开放市场,允许各种AI模型和人类-AI混合体参与。

    机制开源: 游戏规则公开透明,易于审查和监督。

    机制简单稳定: 规则不易被设计者操纵,且能长期保持不变。

未来市场(Futarchy)与提纯人类判断(Distilled Human Judgement)

文章介绍了两种实现“AI为引擎,人类为方向盘”的具体机制:

    未来市场: 由罗宾·汉森提出,即“投票选价值,下注选信念”。该机制通过设立条件市场,让参与者对不同决策方案的未来结果进行预测和下注。AI模型可以作为预测市场的交易者,负责预测各种方案对预设指标的影响。人类则负责设定指标和验证结果。

    提纯人类判断: 该机制通过让陪审团对少量问题进行高质量回答,然后让AI模型对大量问题进行预测,并通过比较预测结果与陪审团答案来评估模型的表现。这种机制适用于需要大量判断的场景,如信用分配、内容审核等。

深度资助(Deep Funding)

深度资助是提纯人类判断在资助领域的应用。它通过构建一个知识贡献图谱,利用AI模型预测每个节点对最终成果的贡献度,并根据贡献度分配资金。这种机制适用于学术、开源软件等领域,能够实现对知识贡献的长期可持续激励。

隐私保护

文章还探讨了如何在保护隐私的前提下利用AI进行决策。作者提出,可以利用多方计算、同态加密等技术,让AI模型在不泄露隐私信息的情况下进行计算和预测。

引擎+方向盘设计的优势

“AI为引擎,人类为方向盘”的设计具有以下优势:

    人类掌控方向: 人类负责设定目标和方向,避免被AI模型完全控制。

    减轻决策负担: 人类只需提供少量高质量的决策输入,无需处理大量繁琐的决策。

    激励平滑: 决策结果难以被单一行动者操控,降低了腐败的风险。

总结

V神的文章向来逻辑清晰,论证严谨,具有一定的启发性和前瞻性。为我们思考AI时代的民主治理提供了新的视角。还有哪些值得探讨之处?:

机制的复杂性与可行性:

      未来市场和提纯人类判断等机制在理论上具有一定的可行性,但在实际操作中,如何保证陪审团的公正性、如何设计合理的激励机制、如何应对恶意攻击等问题,都需要进一步探讨。

      “深度资助”概念非常好,但是实际应用会涉及非常复杂的社会关系,如何量化贡献度,如何避免恶意节点,都是挑战。

 人类判断的局限性:

      文章强调人类判断的高质量,但人类的认知偏差、情感因素等也会影响判断的客观性。如何最大限度地减少这些因素的影响,是需要深入研究的问题。

AI伦理与安全:

      虽然文章强调了AI的风险,但如何建立有效的AI伦理规范、如何防止AI被恶意利用等问题,仍需要更深入的探讨。

      即使使用加密技术,如何确保AI模型不被恶意篡改,也是一个挑战。

社会接受度:

      将AI引入治理,可能会引发公众的担忧和抵触情绪。如何进行有效的宣传和引导,提高公众对AI治理的接受度,也是一个重要问题。