新京报贝壳财经讯(记者罗亦丹)当人工智能、生命科学等前沿技术以前所未有的速度重塑产业与生活,科技伦理这道“安全防线”的重要性愈发凸显。如何防范算法偏见、数据滥用、隐私泄露等伦理风险,让科技创新真正向善?
参加北京市十六届人大四次会议的市人大代表、中国电信集团AI方向高级技术专家张莹带来了关于进一步加强科技伦理治理的建议,并结合政策实施实践与行业现状,为完善科技伦理治理体系建言献策。

市人大代表张莹。 受访者供图
2025年1月,北京市8部门联合发布《关于加强科技伦理治理的实施意见(试行)》,立足国际科技创新中心定位,探索人工智能、生物医药等领域伦理治理“北京方案”。
张莹告诉新京报贝壳财经记者,经过一年实践,该《实施意见》在实际执行中仍面临一些问题。
在她看来,当前科技伦理治理的核心问题集中在三个方面。其一,新兴技术领域伦理审查标准不明确,审查能力参差不齐,“形式审查”现象依然存在。其二,科研人员伦理意识与实践脱节,存在“重技术、轻伦理”倾向,伦理培训未能发挥实际效用。部分科研人员未接受系统伦理培训,或培训内容与实际工作脱节,在项目执行中忽视伦理风险,导致伦理审查滞后于技术迭代,全生命周期风险防控存在漏洞。其三,新兴技术的学科交叉发展趋势,为跨部门职责衔接、跨区域监督增加了难度,难以实现统筹监管与有效追责。如“AI+医疗”“AI+教育”等融合场景中,监管主体分散、规范不统一,易形成“多头管理、责任模糊”局面,追责威慑力有限。
针对这些问题,张莹建议,针对人工智能、基因编辑、脑机接口等发展迅速的领域,按技术全生命周期设置差异化的动态伦理审查周期;伦理意识相关培训应与实际科研工作或科研管理工作相结合,推动技术与伦理并重,让伦理意识与科研实践深度融合;积极应对区域协同、学科融合等发展趋势,构建与之相适应的科技伦理追责机制,如在跨区域、跨专业的项目中,根据项目的具体阶段明确责任主体与合作方,避免多头管理职责划分不清晰,同时确保项目不同阶段主责部门有充足的话语权主导项目推进。
编辑 杨娟娟
校对 刘军






