2025年2月28日,Vitalik 发布了一篇名为“AI 为引擎,人类为方向盘”(原文 https://vitalik.eth.limo/general/2025/02/28/aihumans.html)的文章探讨了一种利用人工智能优化治理的新模式。文章作者认为,传统的民主结构虽然能够避免权力集中,集思广益,但也存在选民素质参差不齐、参与度低、易受操控等问题。为了解决这些问题,作者提出了一个设想:利用人工智能作为“引擎”,人类作为“方向盘”,即人类提供少量但高质量的决策输入,人工智能则负责执行和优化。
为何不直接让单一AI掌权?
文章首先驳斥了让单一AI模型直接掌权的方案。作者认为,这种方案虽然简单,但无法满足长期机构治理所需的“可信中立性”。具体而言,单一AI模型存在以下问题:
隐含偏见: AI模型在训练过程中不可避免地编码了大量特定人群和结果偏好。
黑箱操作: 即使开源,AI模型的复杂性也使其内部运作难以理解。
频繁更新: AI技术的快速发展要求模型频繁更新,不利于机构的稳定性。
因此,作者主张采用“规则为游戏,AI为玩家”的模式,即设计一套简单的规则,让各种AI模型在其中自由竞争。这种模式的优势在于:
避免单一模型垄断: 形成开放市场,允许各种AI模型和人类-AI混合体参与。
机制开源: 游戏规则公开透明,易于审查和监督。
机制简单稳定: 规则不易被设计者操纵,且能长期保持不变。
未来市场(Futarchy)与提纯人类判断(Distilled Human Judgement)
文章介绍了两种实现“AI为引擎,人类为方向盘”的具体机制:
未来市场: 由罗宾·汉森提出,即“投票选价值,下注选信念”。该机制通过设立条件市场,让参与者对不同决策方案的未来结果进行预测和下注。AI模型可以作为预测市场的交易者,负责预测各种方案对预设指标的影响。人类则负责设定指标和验证结果。
提纯人类判断: 该机制通过让陪审团对少量问题进行高质量回答,然后让AI模型对大量问题进行预测,并通过比较预测结果与陪审团答案来评估模型的表现。这种机制适用于需要大量判断的场景,如信用分配、内容审核等。
深度资助(Deep Funding)
深度资助是提纯人类判断在资助领域的应用。它通过构建一个知识贡献图谱,利用AI模型预测每个节点对最终成果的贡献度,并根据贡献度分配资金。这种机制适用于学术、开源软件等领域,能够实现对知识贡献的长期可持续激励。
隐私保护
文章还探讨了如何在保护隐私的前提下利用AI进行决策。作者提出,可以利用多方计算、同态加密等技术,让AI模型在不泄露隐私信息的情况下进行计算和预测。
引擎+方向盘设计的优势
“AI为引擎,人类为方向盘”的设计具有以下优势:
人类掌控方向: 人类负责设定目标和方向,避免被AI模型完全控制。
减轻决策负担: 人类只需提供少量高质量的决策输入,无需处理大量繁琐的决策。
激励平滑: 决策结果难以被单一行动者操控,降低了腐败的风险。
总结
V神的文章向来逻辑清晰,论证严谨,具有一定的启发性和前瞻性。为我们思考AI时代的民主治理提供了新的视角。还有哪些值得探讨之处?:
机制的复杂性与可行性:
未来市场和提纯人类判断等机制在理论上具有一定的可行性,但在实际操作中,如何保证陪审团的公正性、如何设计合理的激励机制、如何应对恶意攻击等问题,都需要进一步探讨。
“深度资助”概念非常好,但是实际应用会涉及非常复杂的社会关系,如何量化贡献度,如何避免恶意节点,都是挑战。
人类判断的局限性:
文章强调人类判断的高质量,但人类的认知偏差、情感因素等也会影响判断的客观性。如何最大限度地减少这些因素的影响,是需要深入研究的问题。
AI伦理与安全:
虽然文章强调了AI的风险,但如何建立有效的AI伦理规范、如何防止AI被恶意利用等问题,仍需要更深入的探讨。
即使使用加密技术,如何确保AI模型不被恶意篡改,也是一个挑战。
社会接受度:
将AI引入治理,可能会引发公众的担忧和抵触情绪。如何进行有效的宣传和引导,提高公众对AI治理的接受度,也是一个重要问题。