复旦团队深耕科技伦理:让AI服务于人,让伦理融入创新
2026-03-29 11:59:58 - 佚名
人工智能医疗、AIGC、脑机接口……去年年底,复旦大学逸夫科技楼的报告厅里,一场围绕“人类未来”的讨论热烈展开。这场讨论发生在第三届中国科技伦理论坛的闭幕式上,复旦大学科技伦理与人类未来研究院院长王国豫在总结发言时明确表示,科技伦理既不是科技发展的“绊脚石”,也不是依附于科技的“附属品”,而应该成为科技创新的重要组成部分,贯穿于技术研发、应用的每一个环节。

这席话,正是王国豫和她的团队多年来深耕科技伦理领域的真实写照。2025年,复旦大学科技伦理研究团队(以下简称“团队”)获评复旦大学“钟扬式”好团队(科研团队),这份荣誉背后,是他们日复一日的坚守与探索。
“技术终究是为人类的判断服务的”
在国内哲学界,科技伦理曾经是个“冷门领域”。它既不属于传统伦理学的核心范畴,也难以用单一学科的方法来规范。但在王国豫看来,一个学科的重要性,不在于它当下有多受关注,而在于它能否解决现实中正在出现的问题。
随着科技的不断发展,技术已经深度融入生命医学、数据治理和智能系统等多个领域,科技伦理也逐渐走到了时代前沿。这一点,在精准医疗和人工智能医疗的应用中体现得尤为明显:传统的医学伦理,主要关注医生和患者之间的关系;而在如今数据驱动的医疗模式下,“患者”不仅是接受治疗的对象,还会以数据、样本、信息的形式,持续参与到科研过程中。
基于这样的现实,团队带头人王国豫逐渐形成了一个清晰的观点:科技伦理不能只停留在简单的价值判断和理论辩护上,必须真正融入科研模式和技术设计的全过程。
《人工智能医学影像伦理手册》的诞生,就是这一理念的具体实践。人工智能辅助医学影像识别,确实能大幅提高诊断的效率和准确率,但也难免会出现假阳性、假阴性等问题。“漏诊可能会耽误患者治疗,误判则会给患者和家庭带来沉重的心理压力和经济负担。”王国豫表示,在目前算法还存在“黑箱”、无法完全透明的情况下,谁拥有最终的诊断决策权、出现问题后责任该如何划分,都是绕不开的伦理难题。“所以我们在手册里反复强调,人工智能只能作为‘辅助决策者’,技术终究是为人类的判断服务的。”
这本手册的诞生,历经了整整三年时间。王国豫和上海人工智能实验室的瞿晶晶博士、复旦大学附属华山医院的张军教授等人合作,收集了大量一线数据和实际案例,反复讨论打磨。期间,他们还征求了数十位来自医学影像、人工智能和临床一线的专家意见,最终以“实用工具”的形式,为行业提供了可操作的伦理指引——明确了哪些数据使用方式是合规的、伦理审查需要重点关注哪些风险、不同应用场景下各相关方的责任如何分配等。
“说实话,这本手册是个‘吃力不讨好’的成果,但它确实有用,真正践行了‘伦理即服务’的理念。”王国豫这样评价道。手册发布后,收到了很多一线医生的反馈,当他们遇到“能做还是不能做、该做还是不该做”的困惑时,这本手册就能为他们提供清晰的边界指引,既专业又好用。
如今进入“AI for Science”时代,人工智能等前沿科技能否反过来助力伦理治理,实现“科技与伦理”的双向赋能,成为了新的探索方向。从2023年开始,王国豫带领学生,联合姜育刚、马兴军以及生命科学学院杨亚军团队,着手训练伦理审查大模型。经过近两年的努力,“一鉴”大模型正式诞生。
这款基于高质量伦理审查数据优化的专用大模型,集成了规则更新器、规则图构建器、规则匹配器和规则审查器四大核心模块,能够自动定期抓取、提炼最新的政策法规,构建分层分领域的伦理规则知识图谱,还能针对待审查的科研项目资料,高效、精准地匹配相关伦理规则。
2025年7月,“一鉴”大模型在世界人工智能大会上发布,立刻引起了社会各界,尤其是医学和人工智能领域的广泛关注,多家医院和研究机构纷纷主动寻求与复旦大学的合作。目前,这款智能体系统已经在复旦大学和附属中山医院投入试用,真正实现了伦理与人工智能的双向赋能。
数字技术赋能:教学、科研与人才培养一体化
在团队看来,伦理判断不是天生的,而是一种需要反复训练的能力,这种能力需要在课堂上拆解学习、在实验室里体验实践、在真实的行业场景中检验提升。
数字伦理实验室的建立,就是团队用数字技术赋能科技伦理研究和教学的一次重要尝试。早在2022年下半年,在学校和学院的支持下,团队就将VR技术、人工智能技术引入了伦理教学。当学生沉浸在逼真的“电车难题”等伦理场景中,在压力、有限信息和多重价值的纠结中做出选择时,伦理就不再是课本上抽象的原则,而是可感知、可体验的现实问题。
传统的伦理反思,大多是站在旁观者的角度,很难反映人们在真实道德困境中可能做出的选择。而VR沉浸式体验,能增强学生的代入感,让他们更深刻地体会到伦理选择的严肃性,提升道德敏感性,从而在实践中更慎重地对待每一个选择。这一教学理念也得到了实证研究的支持,相关研究成果日前发表在哲学教学领域的权威期刊《Teaching Philosophy》上,成为“新文科”建设中科技与人文深度融合的典型案例。
2022级哲学学院硕士研究生季嘉程回忆道:“老师们投入了大量的时间、精力和经费,反复研究如何把VR技术运用到应用伦理的思想实验中,就是为了让我们真正感受到‘选择的重量’。”
目前,《应用伦理学》课程的部分课堂已经搬到了数字伦理实验室,团队成员、科技伦理与人类未来研究院副研究员朱林蕃,还将自己负责的思政大课实践环节安排在实验室进行。学生们定期进入数字虚拟场景完成实践任务、撰写报告,在体验伦理判断的同时,也通过反馈不断丰富和完善实验设计。
如果说数字伦理实验室侧重“体验”,那么AI大课的建设就更考验“教学设计”。在复旦大学推进100门AI大课的背景下,团队承担了《人工智能伦理》课程的建设工作,而真正的挑战,藏在课堂之中。
这门课程面向全校开放,同一间教室里,坐着三类不同的学生:有哲学基础但缺乏科研经验的本科生,需要入门引导的硕士研究生,还有希望获得理论工具和前沿知识补充的博士研究生。针对这种情况,朱林蕃采用了层层递进的教学逻辑:先讲解基础理论,做好铺垫;再通过分组讨论,不断追问引导,深化理解;对于硕博研究生,则引入“理论工具箱”,将道德心理学、社会心理学的经典实验和最新论文融入课堂,让课堂既生动又有深度,知识点也更丰富。
季嘉程在担任《应用伦理学》课程助教期间,王国豫曾让他把每一节课都完整录音、转写成文字,再和往年的课程内容逐字对比。王国豫会反复回看这些内容,对比不同年度的讲授重点,结合学生的反馈,不断调整课程结构和案例,持续提升课程的质量和前沿性。
与此同时,团队还把课堂延伸到了真实的实践场景中。团队成员、哲学学院副院长尹洁教授介绍,团队与附属华山医院建立了合作,打造了复旦大学科技应用伦理临床教学和研究基地。学生们可以进入医院的伦理委员会参与审查实习,华山医院的相关负责人也会以行业导师的身份,参与学生的开题、答辩和授课等教学环节。在这个过程中,伦理判断不再是课堂上的理论探讨,而是影响临床实践的现实问题,也成为学生理解科研责任、制度约束和专业角色的重要窗口。
“科技伦理的概念工具,需要本土化改造”
除了前沿研究和教学创新,团队还将大量精力投入到制度建设和平台搭建中。
早在1995年4月,复旦大学应用伦理学研究中心就正式成立,由陈根法教授担任主任,是国内高校中最早设立的应用伦理研究机构之一。中心成立初期,主要围绕应用伦理基础理论、经济伦理和生命医学伦理展开探索,还有学者开始参与医院伦理委员会的相关工作,为学科的后续发展奠定了坚实基础。
2016年,为了适应生命医学快速发展的需求,学校成立了复旦生命医学伦理研究中心,复旦大学的科技伦理研究也进入了新的发展阶段。2017年,由王国豫领衔申报的国家重点研发计划重点专项“精准医疗的伦理政策法规框架研究”成功获批。这是人文领域学者首次以“首席科学家”的身份牵头此类项目,标志着科技伦理研究不再局限于“解释世界”,而是通过跨学科融合,将重心拓展到更具公共性的科技伦理治理领域,努力影响和推动负责任的科技创新。
尹洁教授把2022—2023年称为团队发展的“分水岭”:这一时期,科研和教学两条线同步推进、全面发力。随着教育部首次将应用伦理列为哲学门类下的专业硕士学位,团队第一时间完成了申报工作,并于当年获批招生,顺利完成了从论证、课程体系搭建到培养方案制定的全流程工作,首届应用伦理专硕学生于2023年秋季正式入学。
目前,应用伦理专硕已经连续招生三届,毕业生大多走向科技企业、伦理委员会及相关公共部门,形成了稳定的人才输出渠道,这也成为团队从学术研究走向制度建设的重要标志。
在学术共同体建设方面,团队还推动《科技伦理研究》从辑刊升格为国家正式期刊,并成功入选“中国科技期刊卓越行动计划”,期刊的学术规范性和影响力得到了大幅提升。未来,这本期刊还将成为正在筹备中的中国科技伦理学会的会刊。
面对全球性的科技伦理议题,团队正在进行更深层次的思考和探索。在他们看来,当前主导全球科技伦理讨论的许多核心概念,比如“自主性”“隐私”等,都源于西方的文化语境和价值判断。团队开始反思:这是不是思考科技伦理问题的唯一框架?“我们用来思考科技伦理问题的概念工具,本身就需要一场本土化的改造。”尹洁教授说道。
这不仅是在国际学术舞台上发出中国声音的必然要求,更重要的是,能让科技伦理研究更贴近中国的社会现实和文化土壤,从而找到真正适合中国国情的解决方案。在这场关乎人类未来的探索中,复旦大学科技伦理研究团队,始终在时光中深耕,在探索中前行。