编者按:
人工智能的快速发展与广泛应用引发了深刻的伦理问题,受到社会各界的普遍关注,对人工智能进行有效治理的呼声日益高涨。从整体上看,目前关于人工智能治理的研究主要包括伦理治理与法律治理两个方向。相对于法律治理而言,伦理治理具有更强的灵活性与敏捷性,因此伦理治理在未来很长一段时期内将是人工智能治理的重要组成部分。加强人工智能伦理治理的理论研究,特别是注重从实践的角度强化学术研究的现实针对性,是实现伦理治理目标的基本前提。
本专题第一篇夏永红的论文提出了“价值共生”伦理治理范式,尝试超越价值对齐范式,并以“相互受益原则”与“相互承认原则”作为价值共生范式的核心原则,为人工智能伦理治理提供了一种新颖进路。第二篇杨进、杜严勇的论文从动机上的虚伪性与结果上的虚假性两个层面探讨了作为行动的人工智能伦理漂洗的内涵,从动机因素与外部因素分析了伦理漂洗的成因,提出了伦理漂洗的治理策略。第三篇张学义、周洲等人的论文运用价值敏感设计的理论与方法,通过调查研究测量公众对人工智能的价值敏感性的感知程度,得出了公众对不同价值的敏感程度排序,并对比了相关的影响因素,为更好地开展人工智能伦理治理工作提供了重要的参考依据。
(专题策划:杜严勇)
摘 要:当前人工智能伦理治理的主导范式是价值对齐,其目标是确保机器价值与人类价值一致。价值对齐范式主要采取了表征主义和行为主义的AI方案,但这些方案因为面临着常识问题的挑战,难以精准捕捉和编码复杂的人类价值观。为了解决常识问题,需要引入具身-生成AI的技术方案,让它可以把握世界中的相关性,并可以自下而上地自主生成价值观。然而,如果这种自主生成的机器价值观敌对于人类,则有可能给人类带来生存风险。有鉴于此,本文提出了一个“价值共生”的替代范式,旨在实现机器价值与人类价值的和谐共生,它包含了两条AI设计原则:生存利益上的相互受益和价值观上的相互承认。
关键词:人机对齐 生存风险 具身-生成AI 相互承认 常识问题
摘 要:人工智能伦理漂洗现象在现实中的频发引起了学界和公众的重视。从概念上而言,作为一种行动的伦理漂洗呈现出两种要素特征:动机上的虚伪性与结果上的虚假性。就其成因而言,伦理漂洗的形成受到动机因素(生产者的利益追求与消费者和管理者的安全-权益需求)与外部因素(人工智能伦理的有效性,人工智能对伦理的冲击,信息差与治理成本差)的综合性决定。由于伦理漂洗在实践与心理层面都造成了负面的伦理影响,对它的治理需要从内(道德心理)与外(现实制度)两个层面展开。
关键词:人工智能伦理 伦理漂洗 伦理治理
摘 要:“价值敏感性”源于巴迪亚·弗里德曼的“价值敏感性设计”概念,指在技术设计、研发、生产和使用中具有伦理意蕴的价值感知能力。课题组创新性地应用“三方方法论”,通过多指标多因素结构方程模型(MIMIC)测量公众对人工智能的价值敏感性,评估现有技术是否支持价值敏感设计目标。研究发现:(1)公众对人工智能的价值敏感排序为:透明性、算法公正、劳动就业保障、责任归属等,说明这些价值需在技术设计阶段予以重视;(2)信息安全和生态失衡未引起广泛关注;(3)性别和职业对价值敏感性无显著影响,但年龄和学历差异显著。
关键词:人工智能 价值敏感性 多指标多因素模型 伦理治理
摘 要:科学哲学之于科学的价值一直存在着争议。本文通过研究CMU的科学哲学对于朱迪·珀尔的因果理论的贡献来讨论科学哲学对于人工智能的影响。珀尔的因果理论是人工智能的最重要理论之一。CMU科学哲学研究成果“将‘干预’表示为图结构上的变化”对珀尔建立其因果理论起到了非常关键的作用。由此可见,科学哲学对于人工智能具有重要影响。我们还尝试分析了CMU科学哲学研究对珀尔构建因果理论之所以能产生贡献的原因,以及科学哲学可以影响人工智能的原因。
关键词:朱迪·珀尔 因果理论 贝叶斯网络 因果模型 干预
摘 要:通常认为,隐喻表达在认知上具有不可逆性,即本体和喻体在语句中的地位是非对称的,交换本体和喻体会极大地改变语义甚至使语句不可理解。但作为隐喻理解基础的相似和类比,却都是典型的对称关系。本文以基于情境语义学讨论隐喻在对称性上表现出的矛盾属性,根据是否可以抽象出相同的情境类型作为认知框架,区别了强对称、弱对称和非对称三种隐喻表达,并结合语义演算说明对称与非对称的在语义解释中的体现,尝试消除隐喻在对称性问题上的不一致。最后,基于该对称性问题的讨论,认为隐喻的认知机制不是单一的类比或范畴化,具有对称性特征的类比过程和具有非对称性特征的范畴化过程都作为语义生成的一部分,在隐喻理解中被保留。
关键词:隐喻认知 不可逆性 对称性 情境语义学