以机器学习为代表的算法作为新一代人工智能的底层技术逻辑或核心驱动力已经引起了广泛关注。然而算法在实践应用中也被揭示出可能出现侵犯公众隐私、信息控制、算法偏见、歧视甚至危害公共安全等负面问题。有鉴于此,如何确保算法“向善”而不违背人类社会基本的伦理价值或道德原则,成为需要认真思考的重要问题。算法会产生怎样的伦理后果,一方面受到算法应用方式的影响,另一方面则可能源于算法自身的设计特征。正因如此,越来越多研究开始主张内嵌伦理或道德的算法设计,这也成为许多国家和国际机构发布的人工智能治理规范中的重要构成。然而,“伦理算法”或“道德算法”的构想固然吸引人,其能否实现则面临着许多挑战,例如人类伦理道德原则本身的内在张力,由此凸显出对算法设计的伦理问题进行审慎反思的重要性。
本专题的三篇论文从不同角度对这一问题进行回应。第一篇闫瑞峰的论文对算法设计所涉及的功利论、契约论、义务论与德性论四种伦理立场及其引发的治理争论进行了细致梳理,这为我们思考算法设计中的伦理争议提供了一个整体性框架。第二篇李大山的论文聚焦于自动驾驶中的道德两难问题,作者通过区分“一阶道德算法”与“高阶道德算法”,提出并论证了“自动驾驶无需高阶道德算法”这一命题,这对当前许多人呼吁的“道德算法”是一个很有意思的回应。第三篇张海柱的论文转向公共治理场景中的算法应用,作者通过对算法内在政治性的分析提出了“算法公共性”命题,并将算法公共性的实现诉诸于算法的参与式设计,从而在社会政治层面上对算法设计伦理问题进行了初步讨论。三篇论文角度各有侧重,观点立场也不尽相同,但均为我们反思算法设计中的伦理复杂性提供了有益借鉴。