English Version
许丽颖
作者介绍

 清华大学社会科学学院

发表论文
  • 人们对人工智能做道德决策的厌恶感之源及解决之道

    摘要:为了借助人工智能来应对当代社会的道德滞后问题,跨学科、跨文化的大量研究都在关注对人工道德智能体的设计、实现和发展。然而,一个更为重要的元问题应该是:人们究竟是否希望由人工智能做道德决策?来自道德心理学家和神经科学家的一些实证研究表明,答案是否定的,并且该厌恶感的来源可能在于人们认为人工智能缺乏完全的、完整的心智。而要想有效提高人们对人工智能做道德决策的接受度,一方面应将道德决策主体的合法范围延伸至人工智能,另一方面则应进一步对人工智能进行拟人化,提高人工智能被感知到的体验性(热情)和能动性(能力、专长性),以增强人类与人工智能之间的共情和信任,同时还应特别注意利用伊丽莎效应并避免恐怖谷效应。

    关键词:人工道德智能体;道德决策;道德滞后问题;心智感知;拟人化


    卷期: 2020年第42卷第12期
    页码:80-86
关于我们
© 2021 中国科学院大学版权所有 地址:北京市石景山区玉泉路19号(甲) 邮编:100049