
摘 要:价值对齐作为当前AI伦理治理的主导实践范式,旨在通过技术手段确保AI系统与人类价值观保持一致性。然而,人类中心主义的视角局限、技术工具论的二元误区以及技术控制论的应用挑战形塑了三重偏差,导致价值对齐在治理实践中陷入结构性困境。价值观在失衡结构中存在逆向流动的可能,最终引发逆向价值对齐现象,表现为价值欺骗、主权让渡与逆向殖民三个阶段。基于此,人类应当摒弃传统一元主体的认知框架,在“人类-AI”双主体平衡结构中重构AI伦理的治理范式,探索AI与人类在主体身份、认知基础和生命周期层面的对齐并将其作为价值对齐的实践基础,从而真正实现“技术向善”的美好蓝图。
关键词:人工智能 价值对齐 逆向价值对齐 治理范式