English Version
往期专题
  • 专题:“人类增强”的哲学反思

    编者按:

           当前“生命科技”已经完成了从疾病治疗到机能增强的能效性逾越,从动物克隆到人类基因编辑的对象性转变,从个体生命到整体生命的范围性延展,从后天改善到靶点防治的时间性跳度等巨大技术变革。可以说,基于“NBIC汇聚技术”产生的新兴“生命科技”,在物理(身体)增强、认知增强、情感增强、道德增强等“人类增强”方面得到根本性提升,让人类自身的方方面面走上了深度“技术化”之路,这虽然带来了积极性的一面,也产生了诸多不可预测甚至不可控的风险,这就需要我们从哲学层面对“人类增强”进行严肃地反思。本专题的5篇文章从不同角度或人类增强的某一具体领域对该问题进行了探究。易显飞、李文琦的文章以“技术-人文”作为理论框架,对物理增强领域中的现代整形技术进行了剖析,认为现代整形技术已经实现“1.0-3.0”的迭代转向。陈万球、廖莉的文章聚焦“道德增强”与人格同一性问题,指出道德增强可能改变个体的人格特征,引发“我是谁”人格同一性危机。冯烨的文章将人类增强技术作为一个整体,以人文主义技术哲学为主要视角,审视了人类增强对人的生命尊严、人性尊严、社会尊严产生的双刃效应。余天放的文章以人类增强体系中的“认知增强”作为研究对象,说明认知增强与延展心灵论题的联系,进而指出认知现象性对延展心灵版本的认知增强提出了怎样的挑战,最后提出一种可行版本的认知增强需要在延展自我论题(extended self thesis,EST)下得到解释。岳兵兵的文章从人类增强与技术想象的视角,剖析了超人类主义的未来愿景,并指出超人类主义在建构其“未来学”思想的过程中,有其自身独特的底层运作逻辑,而这实质上是一个批判主流哲学思想和文化实践的框架。

                                                                                                                                    (专题策划:易显飞)


    卷期: 2024年 3期
  • 专题:ChatGPT的视差之见

    编者按:

    以ChatGPT为代表的通用人工智能会是人类解放的力量吗?这一问题的合理解答不仅需要考察生产工具、劳动分工体系、制度体系等的演变及其效果,也需要考察人类体力、智力、情感等的对象化及其边界。本专题的三篇文章从不同角度考察ChatGPT所产生的论断构成了ChatGPT的视差之见。齐志远、高剑平、郝亚楠的论文阐述了生产工具从机器、专用人工智能到通用人工智能雏形ChatGPT的演变,劳动分工体系从体力分工、脑力分工到自由分工的变革,以及人类劳动从异化、片面发展到自由化的转变;张润坤的论文提出了与马克思的“一般智力”概念有密切关联的“一般情感”概念,并阐述了一般情感的三大特征和它在生产和社会生活领域中产生的商品化现象及其背后技术对情感的规定和人对自身情感的技术操作,进而指出ChatGPT时代应把握人类情感的直接性、主动性、有限性等特征;秦子忠的论文阐述了人类劳动并非完全可以程序化,因而人工智能作为一种完全可以程序化的计算机系统,它不可能完全替代人类劳动,并且辨析了人工智能替代效应在不同的制度体系中产生不同的后果:它在资本主义制度体系中促使大量人类劳动者失业进而沦为无用阶级,而在社会主义制度体系中则消除价值生产与意义活动的分离进而促进人人自由发展。

                                                                                              (专题策划:秦子忠)


    卷期: 2024年 2期
  • 专题:航空航天史

    编者按:

           像鸟儿一样飞上蓝天,甚至像嫦娥飞天一样直达云霄,自古以来就是人类各个文明的梦想之一。这个梦想在近代以来通过热气球、滑翔机等发明初步实现,然后又借助飞机、火箭等新技术的创造得以完成。本期专题收录三篇文章,首先通过对飞机概念的形成和在中国的传播,研究了中国航空事业起步的概况。其次是通过对中国民用大型飞机适航标准的历史过程研究,揭示了新中国早期制造大飞机的努力。最后,通过对“天宫空间站”项目的决策、建设过程的研究,展示了中国在航天技术方面的巨大发展、核心竞争力的增强和壮志凌云的决心。

                                                                                                                                   (专题策划:王大明)


    卷期: 2024年 1期
  • 人工智能伦理的适配难题

    随着人工智能体与人类现实相照面,在其智能性为人类带来巨大福祉之时,也引发了其道德性如何实现的全面思考。由于人工智能体不是传统意义上的道德主体,如何与之适配成为了人工智能伦理研究的重点与难点。本专题的三篇文章从不同的角度为人工智能伦理的适配问题作出谋划。李平安一文对弱人工智能下机器伦理之可能性进行了疏正。通过对比西方道德理论和先秦道家经典《老子》一书的观点,作者以“弱主体”甚至“无主体”作为德的效应体,来避开西方道德理论在机器伦理的算法设计与主体问题上的适配难题,这为弱人工智能下解决机器道德理论带来新的视野和可行的思路。寿步的文章聚焦于人工智能伦理主体的“正名”问题。借助“循名责实”的方法,追溯了通常被译为“主体”的agent一词在人工智能领域的使用状况,在行为体与智能行为体的实指不一的情况下,作者提倡以“行为体”作为agent的译名并通过“行为体社会”来捕捉人工智能的意向性特征,从而营建起行为体向智能行为体转化的桥梁,为探索人工智能的伦理主体提供更为精准的定位。汪琛、孙启贵与徐飞的文章全面考察了人工智能伦理研究在医疗领域的发展趋势。采用科学计量学方法对医疗人工智能伦理研究文献的主题分布、演进脉络与知识基础进行了系统的梳理和分析,发现研究范式呈现出从规范性伦理研究转向建构性多学科研究的特征,据此提出下阶段医疗人工智能伦理研究的要点问题,如传统伦理学理论的深度融合、伦理准则的治理转向以及心理学方法的介入等,是研究新技术与传统道德伦理理论相适配、融合的重要参照。

    卷期: 2023年 12期
  • ChatGPT引发的哲学挑战

    随着以ChatGPT为代表的智能语言模型的问世,人们对人工智能前景的讨论更加热烈。这其中不仅涉及对强人工智能能否实现等哲学基础问题的探讨,也涉及要采取何种策略来积极应对未来人工智能的讨论。本专题包括三篇文章,分别从三个不同角度探讨了ChatGPT所引发的哲学挑战。第一篇陈晓平与王亚南的“从系统功利主义的观点重审人类中心主义之争”,围绕“ChatGPT以及比它更强的人工智能是否对人类构成威胁”这一紧迫问题展开了细致探讨,把生态伦理学中的人类中心主义立场拓展到了人工智能领域,提出并辩护了人工智能时代里人类中心主义立场的合理性和必要性;第二篇江怡与董化文的“论人工智能与人类智能的双向互动”,以人类智能的四个显著特性为起点,论述了以ChatGPT为代表的新一代人工智能何以无法完全比拟人类智能。以人工智能与人类智能的双向互动关系为核心,指出类脑构建代表了新一代人工智能技术发展的正确方向;第三篇王晓阳与马迅的“从单智慧体社会到多智慧体社会”,首先剖析了限制人工智能发展的几个瓶颈问题,其次论证了以ChatGPT为代表的通用人工智能何以不可能,再次借助多重实现论题与功能主义理论,为具有意识特征的超级人工智能的可能出现做出了辩护,最后借助演化论和博弈论的有关理论资源,论证了何以可能实现“多智慧体互生共存型和谐社会”这一人类与人工智能的共同未来。

    卷期: 2023年 11期
  • 科研诚信建设的探索与深化

    2018年印发的《关于进一步加强科研诚信建设的若干意见》、2019年印发的《关于进一步弘扬科学家精神加强作风和学风建设的意见》,确立了中国科研诚信建设的顶层设计和战略部署。随着中国科研诚信建设进入到新的历史阶段,探索中国科研诚信建设的新理念、新机制、新学理成为新的研究热点。本次专栏选择了三篇论文:印波的论文探究科研诚信治理的法理纠缠,以及中国科研诚信尚未系统关注的治理理念和治理机制的形而上问题;王飞的论文在探究西方发达国家专业化科研诚信专职人员的基础上指出,中国科研诚信建设实现了建制化,但是在科研诚信专业化方面尚未形成系统认知和实践,可借鉴西方发达国家的新进路;王阳的论文探索了惩戒问题研究行为的新机制,指出了中国相关法规尚无惩戒问题研究行为,建议借鉴西方发达国家惩戒问题研究行为的新认知和新机制,完善中国科研诚信治理框架。

    卷期: 2023年 10期
  • 全球科学史的编史学转换

    20世纪以来,科学编史学研究的视角和方法在不断发生变化。从传统的“内在主义”“外在主义”到“科学社会学”“科学知识社会学”,再到近年来兴起的“全球科学史”,科学史学家们不断扩宽研究视野,打破认知边界,更全面、多维、深入地去探索科学和知识的发展及其对人类文明进化的重大推动作用。

    本期的三篇文章围绕科学史研究的实践、方法和视角展开讨论,介绍国际科学史编史学研究的特色和经验。第一篇论文张志敏、刘兵聚焦科学史期刊ISIS中与全球史有关的特刊,探讨科学史界对“全球史”这一史学概念的研究和应用。作者认为,全球史从空间上为科学史家提供了更大的舞台,但同时也对既有的研究路数进行修正和框定,给科学史编撰带来重大的变化,需要对其做深入研究。第二篇安洙英、徐韵文一文在梳理科学史领域“全球转向”的认识框架和观点的基础上,论述“多中心”世界的这一构想对自然知识全球史的意义,探讨如何在“联系”和“比较”的视角下书写各地的科学史,使得科学史转化为一种全球化、去中心化的历史。”第三篇论文徐娅楠、张柏春从实践角度探讨了俄罗斯(苏联)科学家和人文学者进行科学史研究的动因、学术风格及研究转向,为读者展示俄罗斯(苏联)科学院在1932年前探索科学史学科建制化的主线。作者强调,俄罗斯(苏联)的科学史学家为开拓世界科学技术史研究做出了重要贡献,梳理他们的工作有助于我们认识科学技术史学科在世界主要国家的形成及其特定与境。第四篇论文郭荣茂指出,转向后库恩主义科学知识社会学的亚文化视角,可以扩宽科学史编史学的研究视野,为最终找到消弭内外史争论的合理途径奠定基础。这四篇文章所反映的国际经验应当对中国科技史学科的发展有所启发。


    卷期: 2023年 9期
  • 苏(俄)科技哲学

    在科技哲学的整个研究域,苏联和俄罗斯学者都展示了与西方迥然不同的思想进路和研究模式,是科技哲学发展的另一个维度,它为研究者提供了一个可以比较和选择的参考系,对中国学术发展始终具有启发和借鉴意义。本专题选取的3篇文章从学派、学人到学说,构成了一个完整的整体,选择内容非常具有代表性。其中,莫斯科方法论小组(MMK)对当代俄罗斯哲学界具有整体性影响,其影响力甚至远波欧美;已故俄罗斯科学院斯焦宾(В. С. Стёпин)院士的思想具有原创性,他不仅是苏(俄)哲学界的领袖,而且是享誉世界的著名哲学家;量子力学哲学是苏(俄)科学哲学研究的强项,他们的研究继承了西方科学哲学的传统,又兼具马克思主义哲学的特色,在哲学和科学的关系研究方面,一度走在了世界前列。3篇论文都以原始材料为基础仔细分析整理,提炼其精华,其中的“真材实料”殊为难得。作为国家社会科学基金重大项目的阶段性成果,3篇文章集中呈现了苏(俄)科技哲学之一斑,对国内学界有管中窥豹的学术信息和思想价值。

    卷期: 2023年 8期
  • 认知非正义

    “不以言举人,不以人废言”的知识理想在当代认识论与伦理学的研究中都没能得到重视,弗里克(Miranda Fricker)在其《认知非正义:权力与认知的伦理》(Epistemic Injustice: Power and the Ethics of Knowing)一书中探索了一种认识论与伦理学相融合的路径,系统考察了人类认知实践中的非正义问题,提出了证词非正义(Testimonial Injustice)和解释非正义(Hermeneutical Injustice):前者是指身份偏见导致听者对说者的可信度降低,后者是指社会集体解释资源的系统性缺乏使得一些人在解释其社会经历时处于不利境地。《认知非正义》自2007年出版后迅速成为了当代影响力最大的哲学著作之一,谷歌学术被引已达8000多次,引发了哲学、社会学、医学、法学等众多领域的广泛引述。

    本专题源自2021年10月16日在浙江大学召开的“认知非正义”专题研讨会,集中探讨了与认知非正义紧密相关的概念和实践议题,由4篇论文构成。第一篇是弗里克专门为本专题写作的“Institutionalized Testimonial Injustices: The construction of a Confession Myth”,文章回顾了《认知非正义》的核心观点和理论渊源,进一步在群体认识论和心理学研究的基础上,结合司法实践论证了一个“制度化证词非正义”的概念。第二篇是白惠仁和高宇航的“认知非正义的概念谱系”,文章梳理了学界近十年来受弗里克启发所提出的诸多认知非正义概念并尝试提出了一个归置这些概念的框架。第三篇是潘磊的“物化与排他——关于‘证言非正义’的争论及启示”,文章结合当代社会正义理论考察了两种关于证言非正义的解读模式:“物化式”解读和“排他式”解读。第四篇是孔成思的“证言非正义的道德判断与道德责任”,文章论证了不受道德谴责的证言非正义所承担的道德责任何以可能。希望通过本专题的编发进一步引起学界和公众对人类知识生活中广泛存在的非正义现象的关切。


    卷期: 2023年 7期
  • 算法设计的伦理反思

    以机器学习为代表的算法作为新一代人工智能的底层技术逻辑或核心驱动力已经引起了广泛关注。然而算法在实践应用中也被揭示出可能出现侵犯公众隐私、信息控制、算法偏见、歧视甚至危害公共安全等负面问题。有鉴于此,如何确保算法“向善”而不违背人类社会基本的伦理价值或道德原则,成为需要认真思考的重要问题。算法会产生怎样的伦理后果,一方面受到算法应用方式的影响,另一方面则可能源于算法自身的设计特征。正因如此,越来越多研究开始主张内嵌伦理或道德的算法设计,这也成为许多国家和国际机构发布的人工智能治理规范中的重要构成。然而,“伦理算法”或“道德算法”的构想固然吸引人,其能否实现则面临着许多挑战,例如人类伦理道德原则本身的内在张力,由此凸显出对算法设计的伦理问题进行审慎反思的重要性。

    本专题的三篇论文从不同角度对这一问题进行回应。第一篇闫瑞峰的论文对算法设计所涉及的功利论、契约论、义务论与德性论四种伦理立场及其引发的治理争论进行了细致梳理,这为我们思考算法设计中的伦理争议提供了一个整体性框架。第二篇李大山的论文聚焦于自动驾驶中的道德两难问题,作者通过区分“一阶道德算法”与“高阶道德算法”,提出并论证了“自动驾驶无需高阶道德算法”这一命题,这对当前许多人呼吁的“道德算法”是一个很有意思的回应。第三篇张海柱的论文转向公共治理场景中的算法应用,作者通过对算法内在政治性的分析提出了“算法公共性”命题,并将算法公共性的实现诉诸于算法的参与式设计,从而在社会政治层面上对算法设计伦理问题进行了初步讨论。三篇论文角度各有侧重,观点立场也不尽相同,但均为我们反思算法设计中的伦理复杂性提供了有益借鉴。


    卷期: 2023年 6期
加载更多
关于我们
© 2021 中国科学院大学版权所有 地址:北京市石景山区玉泉路19号(甲) 邮编:100049