English Version
话题
专题:人工智能伦理治理的理论与实践

编者按:

       人工智能的快速发展与广泛应用引发了深刻的伦理问题,受到社会各界的普遍关注,对人工智能进行有效治理的呼声日益高涨。从整体上看,目前关于人工智能治理的研究主要包括伦理治理与法律治理两个方向。相对于法律治理而言,伦理治理具有更强的灵活性与敏捷性,因此伦理治理在未来很长一段时期内将是人工智能治理的重要组成部分。加强人工智能伦理治理的理论研究,特别是注重从实践的角度强化学术研究的现实针对性,是实现伦理治理目标的基本前提。

       本专题第一篇夏永红的论文提出了“价值共生”伦理治理范式,尝试超越价值对齐范式,并以“相互受益原则”与“相互承认原则”作为价值共生范式的核心原则,为人工智能伦理治理提供了一种新颖进路。第二篇杨进、杜严勇的论文从动机上的虚伪性与结果上的虚假性两个层面探讨了作为行动的人工智能伦理漂洗的内涵,从动机因素与外部因素分析了伦理漂洗的成因,提出了伦理漂洗的治理策略。第三篇张学义、周洲等人的论文运用价值敏感设计的理论与方法,通过调查研究测量公众对人工智能的价值敏感性的感知程度,得出了公众对不同价值的敏感程度排序,并对比了相关的影响因素,为更好地开展人工智能伦理治理工作提供了重要的参考依据。

                                                                                                                (专题策划:杜严勇)


观点
  • 人工智能伦理治理范式:从价值对齐到价值共生

    摘 要:当前人工智能伦理治理的主导范式是价值对齐,其目标是确保机器价值与人类价值一致。价值对齐范式主要采取了表征主义和行为主义的AI方案,但这些方案因为面临着常识问题的挑战,难以精准捕捉和编码复杂的人类价值观。为了解决常识问题,需要引入具身-生成AI的技术方案,让它可以把握世界中的相关性,并可以自下而上地自主生成价值观。然而,如果这种自主生成的机器价值观敌对于人类,则有可能给人类带来生存风险。有鉴于此,本文提出了一个“价值共生”的替代范式,旨在实现机器价值与人类价值的和谐共生,它包含了两条AI设计原则:生存利益上的相互受益和价值观上的相互承认。


    关键词:人机对齐 生存风险 具身-生成AI 相互承认 常识问题


    作者: 夏永红      
    卷期: 2025年第47卷第1期
    页码: 1-8
  • 人工智能伦理漂洗现象及其治理

    摘 要:人工智能伦理漂洗现象在现实中的频发引起了学界和公众的重视。从概念上而言,作为一种行动的伦理漂洗呈现出两种要素特征:动机上的虚伪性与结果上的虚假性。就其成因而言,伦理漂洗的形成受到动机因素(生产者的利益追求与消费者和管理者的安全-权益需求)与外部因素(人工智能伦理的有效性,人工智能对伦理的冲击,信息差与治理成本差)的综合性决定。由于伦理漂洗在实践与心理层面都造成了负面的伦理影响,对它的治理需要从内(道德心理)与外(现实制度)两个层面展开。


    关键词:人工智能伦理 伦理漂洗 伦理治理


    卷期: 2025年第47卷第1期
    页码: 9-17
  • 公众人工智能价值敏感性的测度解析

    摘 要:“价值敏感性”源于巴迪亚·弗里德曼的“价值敏感性设计”概念,指在技术设计、研发、生产和使用中具有伦理意蕴的价值感知能力。课题组创新性地应用“三方方法论”,通过多指标多因素结构方程模型(MIMIC)测量公众对人工智能的价值敏感性,评估现有技术是否支持价值敏感设计目标。研究发现:(1)公众对人工智能的价值敏感排序为:透明性、算法公正、劳动就业保障、责任归属等,说明这些价值需在技术设计阶段予以重视;(2)信息安全和生态失衡未引起广泛关注;(3)性别和职业对价值敏感性无显著影响,但年龄和学历差异显著。


    关键词:人工智能 价值敏感性 多指标多因素模型 伦理治理


    卷期: 2025年第47卷第1期
    页码: 18-27
加载更多
关于我们
© 2021 中国科学院大学版权所有 地址:北京市石景山区玉泉路19号(甲) 邮编:100049