2025年6月14日至15日,第十一届全国赛博伦理学研讨会暨第五届全国科技伦理论坛在湖南师范大学举行。
本届大会由中国伦理学会科技伦理专业委员会、中国自然辩证法研究会科学技术与工程伦理专业委员会、湖南省世界一流培育学科(哲学)、教育部人文社会科学重点研究基地湖南师范大学中华伦理文明研究中心,长沙新一代人工智能伦理治理与公共政策实验室、湖南师范大学人工智能道德决策研究所、湖南师范大学科技伦理与公共政策研究中心、湖南师范大学科技与社会发展研究中心、大连理工大学大数据与人工智能伦理法律与社会研究中心、大连理工大学科技伦理与科技管理研究中心、中国人民大学伦理学与道德建设研究中心科技伦理研究所、国家社科基金重大项目“大数据环境下信息价值开发的伦理约束机制研究”、 《道德与文明》编辑部、《伦理学研究》编辑部联合主办。来自清华大学、北京大学、中国科学院大学、中国人民大学、浙江大学、上海交通大学、南京大学、国防科技大学、同济大学、大连理工大学等60余所高校和研究机构的170余名专家学者集聚岳麓山下, 对智能科技伦理领域的前沿问题展开深入交流与研讨。

本届会议以“ 人工智能价值敏感设计”为主题,大会设两场主旨报告、四场分会报告,以及四场研究生论坛。中国人民大学曹刚教授、上海大学孙伟平教授、清华大学邱惠丽教授、湖南师范大学李伦教授、中国人民大学龚群教授、华南师范大学教授闫坤如、上海交通大学教授闫宏秀、大连理工大学陈高华教授、北京建筑大学秦红岭教授、大连理工大学郭菁教授、浙江大学白惠仁教授、华中科技大学程新宇教授、中国信息通信研究院付娜研究员和大连理工大学张卫教授、上海理工大学刘科教授和湖南师范大学文贤庆教授做大会报告。近80位专家学者和50位研究生围绕会议相关主题作报告和交流。
开幕式由湖南师范大学道德文化研究院院长、哲学系系主任,教育部人文社会科学重点研究基地中华伦理文明研究中心主任向玉乔教授主持。湖南师范大学公共管理学院院长、长沙新一代人工智能伦理治理与公共政策实验室执行主任毛新志致辞,中国伦理学会科技伦理专业委员会、中国自然辩证法研究会科学技术与工程伦理专业委员会主任李伦出席开幕式并致辞。

毛新志院长对本次大会的召开表示祝贺,对出席本次大会的各位嘉宾、专家、学者和同学们表示热烈欢迎!对中国伦理学会和国内外专家学者对湖南师范大学哲学学科发展的支持表示感谢,毛院长希望通过本次会议促进各位学者深入交流,推动我国人工智能伦理理论研究和治理工作的发展。最后,毛院长恳请各位嘉宾、各位专家学者继续关心和支持湖南师范大学哲学学科的发展。

李伦教授回顾了赛博伦理学研讨会的办会历史,对中国伦理学会和学界同仁的持续支持表示感谢。他指出,人工智能等新兴科技的广泛应用与加速发展,人工智能伦理风险防范与治理日益迫切,本次会议将围绕“ 人工智能价值敏感设计”这一主题展开,期待通过本次会议的深入交流与研讨,为我国人工智能伦理治理献智慧力量,促进智能科技向善、有序发展。
大会报告Ⅰ
第一场大会报告由湖南师范大学易显飞教授教授主持。中国人民大学曹刚教授、上海大学孙伟平教授、湖南师范大学李伦教授、华南师范大学闫坤如教授作大会报告。

中国人民大学曹刚教授指出,在数智时代,技术以前所未有的深度和广度介入人类的认知、决策与行动过程,形成“技术中介化”的显著特征。这种中介化并非仅仅是工具层面的辅助,而是重构了人类与世界互动的基本方式,进而对传统伦理学的理论基础和实践框架发起了全方位挑战,同时推动着伦理研究与实践向更具操作性、情境性和动态性的“行动转向”。这一转向不仅涉及道德规范体系的证明和修正,更关乎对“行动本质”“道德行动者”“道德能力”等概念的元伦理学考察。

上海大学孙伟平教授深入探讨生成式人工智能价值观对齐的理论与实践困境,首先,他指出,当前大模型表现出的输出内容的价值观风险主要包括两大类,一是输出内容的不当、性歧视与偏见,二是用户恶意诱导使用,导致大模型输出内容失德,甚至突破底线,违法。其次,他探讨了如何推动大模型价值观对齐的实现面临的实践困境,如人类价值观多元化,缺乏足够共识,价值观的形成、变化难以总结为一般规律,价值观难以实现量化与技术化建构,多模态内容的价值观、难以识别,大模型如何才能具有价值观正面引导能力,价值观对齐全面性难以保障。

湖南师范大学李伦教授认为,技术伦理治理如何取得实效,是管理部门和产业界最关切的问题。随着人工智能技术的广泛应用,技术伦理风险呈现出日益明显的“人为性”和“机为性”,防范技术伦理风险包括技术方法和非技术方法。“机为性”伦理风险无法用纯粹的非技术方法得到有效防范,技术方法对防范此类风险具有独特的优势。我们将通过技术方法或工程方法防范伦理风险或解决伦理问题的方法和理论称为伦理工程学。尽管伦理工程学利用技术方法防范伦理风险或解决伦理问题,但它不是纯粹的工程学,也不是纯粹的伦理学,而是“技术-伦理”的融合式方法。

华南师范大学闫坤如教授指出,人工智能的自主知识体系重构应该聚焦应用伦理学的研究范畴。随着科技爆炸和社会剧变,传统规范伦理学遭遇解释困境,暴露了伦理学理论的局限性、模糊性和理论冲突,伦理学面临挑战与困境。应用伦理学产生于技术革命飞速发展遭遇了伦理真空,社会结构的价值断裂和传统伦理规范失语的时代背景中,随着科技的飞速发展,生命科技冲击伦理道德,基因编辑技术冲击传统生命伦理规范,人工智能技术引发技术革命和社会革命,我们通过从时代需求、理论视角和实践面向等方面分析人工智能伦理的时代使命,人工智能伦理不同于规范伦理学,它具有实践面向,在此基础上,明确知识定位的学科逻辑、赓续中国学脉的历史逻辑、传承中华传统文明的价值逻辑,通过概念重塑、知识本土化等路径,建构自主性、学理性、系统化、时代化的应用伦理学自主知识体系。
第二场主旨报告由大连理工大学张卫教授主持。中国人民大学龚群教授、上海交通大学教授闫宏秀、大连理工大学陈高华教授和湖南师范大学文贤庆教授作主旨报告。

中国人民大学龚群教授认为,人工智能已经在人类生产、生活、交通、教育以及社会治理等领域中广泛运用,在人工智能广泛运用的过程中,人们已经对于人工智能运用所产生的道德风险进行了相当普遍的讨论。生成式人工智能的迭代加速发展,进一步使得人们担忧其可能产生的伦理风险。奇点临近,将带来人类的尊严危机和人类在这个星球上的地位危机,这是对于人类前所未有的风险。正是在这样的技术发展背景条件下,价值对齐已经成为人工智能领域里十分重要的研究课题。然而,就目前的价值对齐研究来说,仍然是一项充满疑虑和挑战的课题。尽管如此,人工智能价值对齐问题的迫切性促使人们努力拓展前行。

上海交通大学教授闫宏秀认为,人类的发展离不开技术,但这并非意味着只需要技术,而是更需要对技术进行深层且系统的思考。回顾人类发展的历史,物质意义的技术建设离不开非物质意义的价值观建设,且非物质的建设更具有根本性与引领性。在当下,基于数据和AI所带来的巨大变革,数智作为数据和AI的融合正在进一步以叠加的方式加速了人类社会的变革。但值得人类警惕的是,数智技术将人类智能与机器之间进行融合,基于任务完成的价值对齐凸显了技术工具论的有效性,但技术工具论的局限性与技术价值论对其的矫正必将带出对这种对齐哲学审视。因此,关于技术价值观与人类价值观念之间的互为生成型问题、数据智能价值对齐的顶层逻辑与底层逻辑之间的融贯性等问题成为了关乎人类未来发展关键问题。

大连理工大学陈高华教授认为,统治或竞争不是人工智能同人类可能形成的唯一关系,二者可以基于平等形成一种史无前例的共同体。这种特殊的共同体基于一种能够在普遍性和特殊性之间达成平衡的政治本体论,由此可以区分出人工智能作为政治议题的政治性和作为政治主体的政治性。就第一种政治性而言,人工智能是否具有政治能力决定其作为政治议题的不同性质,而它作为政治议题的特殊性恰恰在于它有可能作为谈论者而被谈论,进而可以探讨关涉人工智能和人类关系的不同公共领域模型。就第二种政治性而言,通过区分人工智能的物性和世界性,我们能够将人工智能的政治性视作是一种建构的产物,这便为人类将其视作是“我们”中的一员提供了辩护路径。但是,即便人类愿意承认人工智能,也并不意味着人工智能一定要承认人类,人类唯一能够做的仅仅是为未来做好准备。

湖南师范大学文贤庆教授指出,生成式人工智能通过自身的行动能力实现人类加诸的目标,表现出某种程度的自主性,这种自主性源于人机的交互过程。生成式人工智能通过算法设计实现与人的交互。尽管很多人认为,生成式人工智能的算法设计纯粹是一个不涉价值的技术实现问题,但事实上,从交互主体的角度来审视,我们有理由相信,生成式人工智能的算法设计在根本上应该是关涉人类价值的价值敏感设计。
分会场专题报告Ⅱ
分会场一由清华大学邱惠丽教授和浙江大学白惠仁教授主持,以人工智能价值敏感设计与道德物化、生成式人工智能与价值对齐为主题,黑龙江大学张本祥教授等16位专家学者展开深入交流与探讨。
分会场二由《云南社会科学》编辑部谢雨佟编辑和《理论探索》编辑部苏玉娟编辑主持,以人工智能的伦理风险与伦理审查、人工智能伦理治理与公共政策为主题,大连理工大学王飞教授等14位专家学者展开深入交流与探讨。
分会场三由华中科技大学程新宇教授和上海理工大学刘科教授主持,以具身智能、脑机接口与道德增强、生命科学与医学人工智能的伦理风险为主题,江汉大学马兰教授等12位专家学者展开深入交流与探讨。
分会场四由大连理工大学郭菁教授和《长沙大学学报》编辑部简小烜教授主持,以人工情感与人机信任、人工道德主体与责任问题为主题, 上海财经大学方红庆教授等16位专家学者展开深入交流与探讨。
研究生论坛Ⅲ
分会场一由湖南师范大学余露老师和华中农业大学李思雯老师主持,以人工智能价值敏感设计与价值对齐为主题,上海交通大学李洋等11位研究生展开深入交流与探讨。
分会场二由湖南师范大学凌昀老师和中国科技大学张贵红老师主持,以人工智能伦理及其治理为主题,清华大学王硕等12位研究生展开深入交流与探讨。
分会场三由湖南师范大学肖根牛老师和何瑛老师主持,以脑机接口、智慧医疗与康养伦理为主题, 北京大学袁洁铃等13位研究生展开深入交流与探讨。
分会场四由长沙理工大学宋强老师和广州大学胡晓萌老师主持,以人工道德主体与人机关系为主题, 中国人民大学王誾等12位研究生展开深入交流与探讨。
大会报告Ⅳ
第一场大会报告由大连理工大学陈高华教授主持。 北京建筑大学秦红岭教授、大连理工大学郭菁教授、上海理工大学刘科教授和 浙江大学白惠仁教授作大会报告。

北京建筑大学秦红岭教授指出,随着人工智能技术日益嵌入城市设计过程,技术驱动下的高效率与精准性虽显著提升了城市决策能力,但同时也引发了诸多伦理问题。她从城市设计转型的背景出发,梳理了人工智能介入城市设计所带来的主要伦理挑战,重点探讨隐私权侵蚀、数据偏见与算法歧视以及包容性不足与公众参与问题。在此基础上提出“嵌入式伦理导向”的智能化城市设计路径,强调伦理价值不应作为技术应用后的修补机制,而应前置嵌入城市设计的全过程之中。

大连理工大学郭菁教授指出,计算智能主导着人工智能时代,而智能的计算性集置,使人类心智、身体、身心关系及社会关系呈现普遍计算化趋势。普遍计算所引发的风险具有自相关性与自反性特征,形成了一种时代性的急难。这一急难是对存在的遗忘,包括对被给予性、对归属性以及对时间性的遗忘,在此急难中需要确立责任伦理的优先性。责任伦理立足于人的有限性,以未来为向度,并以“返”为起点,主张由计算的必然性向自由的可能性、由无所约束的扩张向自我约束的抑制、由个体责任向共在责任的返回,从而在返回中规避计算智能的风险。

上海理工大学刘科教授认为,自主选择一直以来都是伦理学的核心概念,劝导机器人是人工智能对人际劝导活动的模仿。道德增强是劝导技术在人工智能使用上的一种显著趋势,它的设计旨在以技术道德化的理念促进使用者的道德行为。人工智能的道德增强主要面临的伦理质疑是可能损害个人自主性。她讨论人工智能劝导技术的概念以及原初意图,指出在人工智能的道德增强的使用场景与特征,以及在这一技术嵌入下人们的自主性是否出现变化以及可能出现何种变化。然而劝导技术在导人向善的理想下在现实生活中的确出现违背或伤害人们自主性的现象。因此,有必要进一步澄清现实中人工智能进行道德增强的真实具体边界和属性,探讨人工智能劝导技术伤害自主性的逐项特征,在此基础上对人工智能道德增强提出客观参考的伦理框架。这一框架的标准将会参考个体视角与社会性视角的转化从而针对劝导技术提供审慎和负责任的规划。

浙江大学白惠仁教授认为,人工智能与人类道德之间似乎存在着一种张力:一方面,人工智能不断挑战人类现有道德秩序,因而我们需要完善伦理规范、注重风险预警;另一方面,人工智能在个体层面强化了人的道德决策能力(如基于智能技术的“道德增强”),在社会层面促进了某些人类基本价值的实现(如生成式人工智能极大地达成了知识平权)。无论是人工智能对人类道德的挑战还是改进,都关涉到在今天技术加速迭代的社会语境中我们如何看待道德的演化方向,即我们如何理解“道德进步”。技术进步与道德进步的关系是数字智能时代的重要理论问题,也是“科技向善”、“科技增进人类福祉”等理念得以清晰的基础概念。
第二场大会报告由湖南师范大学文贤庆教授主持。 清华大学邱惠丽教授、华中科技大学程新宇教授、中国信息通信研究院付娜研究员和大连理工大学张卫教授作大会报告。

清华大学邱惠丽教授指出,AI4S的迅猛发展在重塑科研范式的同时,也催生出“机器幻觉”这一侵蚀科学可信度的新型风险。她分析了机器幻觉的生成机制,揭示了训练数据产生的幻觉、训练过程产生的幻觉和推理过程产生的幻觉。在此基础上,她探讨了在AI4S环境下机器幻觉在技术层面、制度层面与社会层面引发的伦理风险。这些风险不仅挑战了科研诚信准则,还可能引发公众对科学共同体的信任危机。因此,治理机器幻觉需要构建一个“技术-制度-伦理”协同框架。

华中科技大学程新宇教授认为,隐私保护的重要性不言而喻。但是,首先,在AI时代隐私定义发生了变化,其次,AI时代保护隐私的四类路径和方法有四种,即技术、法律、伦理、管理路径,它们都存在这样和那样的局限,再次,AI时代隐私保护存在内在困境和外在冲突。所以,在AI时代保护隐私是一个困难的任务。可能的做法是及时更新隐私定义,完善四类保护隐私的方法,以及平衡多种利益冲突。

中国信息通信研究院付娜研究员认为,随着人工智能技术在医疗、交通、教育等领域的广泛应用,其带来的伦理风险也日渐凸显,包括隐私泄露、算法偏见、责任模糊等。她对人工智能伦理风险现状、防控手段等关键问题展开研究。首先界定了人工智能伦理风险,并按照不同维度对风险进行分类;其次,通过案例研究方式,识别人工智能伦理风险,并研判伦理风险发展趋势;再次,聚焦智能医疗、自动驾驶、智能教育三个领域,对不同场景下的伦理问题进行深入分析;最后,总结人工智能伦理风险防控的现有实践及面临的挑战,并提出人工智能伦理风险防控建议。

大连理工大学张卫教授主张,伦理问题可以由工程学来解决吗?这要看是什么伦理问题,元伦理、规范伦理中的那些理论思辨问题自然无法交给工程学来解决,但应用伦理中的部分问题可以交给工程学来解决,比如如何让伦理规范真正落地、如何让伦理观念变成人的切实行动、如何让人工智能成为道德行动者等。在历史上,早期的技术治理、技术修正理论、行为技术学在某种意义上已经具有“伦理工程学”的雏形,随着技术伦理学的兴起,尤其是内在主义进路的提出,出现了一些新思路,如价值敏感设计、负责任创新、道德物化、道德增强、助推理论、劝导技术、行为技术、道德机器、价值对齐、合乎伦理的设计等,这些思路和方法进一步催生出“伦理工程学”。伦理工程学尽管有许多不可取代的优点,但也存在着诸多问题和争议,其合法性还需要进一步辨析和论证,需要界定其应用的合理边界,以免造成适得其反的后果。
闭幕式Ⅴ
闭幕式由由湖南师范大学公共管理学院院长、长沙新一代人工智能伦理治理与公共政策实验室执行主任毛新志主持。
中国伦理学会科技伦理专业委员会副主任孙伟平总结发言,他肯定了与会者就会议相关主题进行充分交流和热烈讨论。他分享了自己的一些观看以及对于相关问题的思考。人工智能对于整个社会和人的改造是我们逃避不了的时代问题,目前来说,还是在掌握之中,但需要加强对于智能科技的反思,特别是伦理的价值的反思。以算法为基础的大模型和生成式人工智能模型是讨论热点,算法的价值敏感设计和价值观对齐是我们本次大会研讨的关键问题。伦理学科学化、量化和公理化在过去可能不是特别成功,今天是否可以借助信息化智能化工具将伦理学价值论里面的某些内容进行量化是有待思考的问题。人工智能飞速发展的时代,需要新的理论及其阐释,许多涉及伦理价值的问题需要各位去解决,期待更多系统化的解决方案以及更多其他成果的涌现。
中国伦理学会科技伦理专业委员会、中国自然辩证法研究会科学技术与工程伦理专业委员会主任李伦对历届大会的研究主题进行了历史回顾和学理分析,并预告下一届会议主题和举办地。最后,李伦教授代表会议主办方向倾情支持大会的所有领导、学者和同学们表示衷心的感谢!
一审:李波
二审:文贤庆
三审:毛新志