摘要:要避免技术的“物化”和“异化”

当我们站在爱丽丝的岔路口……这场国际研讨会聚焦科技伦理共性问题

还记得《爱丽丝梦游仙境》吗?当她来到一个岔路口,看到一只柴郡猫在树上,于是有了一番对话——“我该走哪条路?”“你想去哪儿?”“我不知道。”“没关系。”

“当科学、伦理、政策发生冲突时,我们需要问自己,我们想生活在什么样的世界里?但有一点,让人们变得更好和造就更好的人是有区别的。”日前,中国科学院学部科技伦理研讨会在上海举行,加拿大达尔豪斯大学杰出研究名誉教授弗朗索瓦丝·贝利斯作主旨报告,她曾任世界卫生组织人类基因组编辑治理和监管全球标准专家咨询委员会成员。

会上,来自国内外的70余位专家学者围绕科技伦理的共性问题,聚焦人工智能、生命伦理等展开深入研讨。

【鼓励社会讨论和政策辩论】

弗朗索瓦丝·贝利斯曾在2015年和2023年分别担任第一届和第三届人类基因组编辑国际峰会规划委员会成员。

据介绍,2015年,该峰会认为继续进行任何生殖细胞编辑的临床应用都是不负责任的,除非有关安全性和有效性问题已得到解决,并达成广泛的社会共识;2018年,该峰会的讨论表明,是时候为此类试验确定一条严谨、负责任的转化路径;到了2023年,可遗传的人类基因组编辑的安全性和有效性的临床前证据尚未建立,社会讨论和政策辩论也还没有定论。

在她看来,应该鼓励这样的社会讨论和政策辩论,这对于解决是否应该使用这项技术至关重要。

“我们希望生活在一个什么样的世界中?对于这一问题的答案应贯穿于人们对人类基因组编辑等科技创新的回应之中。”弗朗索瓦丝·贝利斯说。

【潜在的新生物必须受到高度监管】

人工智能时代的生物伦理有何不同?

“智能与生物的交叉融合正在深刻改变我们对生命、意识的认知。脑机接口技术正在实现人脑与计算机的直接连接,使得人类意识可以直接控制外部设备,甚至在未来可能实现意识上传。虚拟现实与增强现实技术正在改变人类感知现实的方式,引发对意识本质的探讨。”中国科学院院士、中国科学院微生物研究所病原微生物与免疫学重点实验室主任高福在主旨报告中说,我们需要重新思考:具有自主意识的人工智能是否应该被视为“生命”,脑机接口增强后的人类是否还是“人类”,人机协同逐渐普遍应用于医疗诊断和治疗领域,责任又该如何分配?

在他看来,创造任何潜在的新生物必须受到高度监管。

“人工智能已经开始撒谎了!”高福说,他的学生此前曾就昼夜节律基因和免疫问题咨询ChatGPT,结果发现对方提供的5个答案中,有1个是假的。

【需要持续实时的后市场审查】

“不久前刚获得诺贝尔物理学奖的杰弗里·辛顿,一直认为可以停止培训放射科医生,改由人工智能来替代。”英国爱丁堡大学教授罗宾·威廉姆斯在主旨报告中说,事实上目前在英国和其他欧洲国家使用人工智能的医院还很少,而且所有结论依然是由医生来决定。

在他看来,目前负责任且合乎伦理的人工智能方法强调“预防”,然而这种上游干预的努力虽然用意良好,但可能无法有效确保安全、公平地应用和持续使用人工智能。随着环境和基础设施的变化,人工智能模型的性能可能会下降,因此需要对人工智能工具进行持续、实时的后市场审查。

“我们发现人工智能有时表现得比放射科医生好,但有时表现得不如人意。”罗宾·威廉姆斯说,可以有选择性地使用可靠模型,从而建立起一种负责任的人工智能应用的临床实践。伦理与责任问题需要与人工智能的实施、应用和成果的独特性结合起来。

【避免技术的“物化”和“异化”】

“阿基米德把圆周率精度从3.1提高到3.14、祖冲之提高到3.141592,用了600多年,而计算机将其提升到小数点后1012位,仅用了70年。”中国工程院院士、同济大学校长郑庆华在主旨报告中说,人工智能已成为赋能一切的新质生产力,成为认识世界、改造世界的一种新思维、新方法、新工具。

在他看来,在人工智能教育中,要避免技术的“物化”和“异化”,既发挥人工智能的赋能作用,又要防止技术凌驾于育人之上。