Ann Johnson在中风损害了其平衡能力以及呼吸和吞咽能力后,约20年一直无法行走和说话。但在2022年,一个脑植入物终于能让Johnson听到了自己的声音。
一个装有脑机接口植入物的人体头骨透明模型。图片来源:Jean-Christophe Bott/EPA-EFE/Shutterstock
该植入物是过去5年神经技术进入人体试验阶段的例子之一。这类由埃隆·马斯克创办的Neuralink等公司开发的设备,可以改变神经系统的活动以影响言语、触觉和运动等功能。近日,联合国教科文组织(UNESCO)在法国巴黎举行了一场会议,与会代表最终确定了一套管理神经技术的伦理准则。
这些准则侧重于保护用户免受可能侵犯其人权的技术滥用,包括自主权和思想自由。这些包括科学家、伦理学家和法律专家的与会代表们最终确定了9项准则。其中包括建议技术开发者披露神经信息如何被收集和使用,以及确保产品对人的心理状态的长期安全性。
“这份文件阐明了如何保护人权,特别是与神经系统相关的人权。”智利圣地亚哥大学的神经科学家Pedro Maldonado说,他是起草准则的24位专家之一。这些准则不具有法律约束力,但各国和组织可以用它们来制定政策。今年11月,UNESCO的194个成员国将投票决定是否采纳这些准则。
在美国和欧盟等地区,针对植入式脑机设备已有立法。但消费级非医疗设备,如可穿戴设备,受到的监管较少。参与起草准则的美国麻省理工学院的神经技术学家Nataliya Kosmyna表示,这些设备因快速规模化的潜力而引发伦理担忧。
其中一个担忧是,眼球运动和语调等信息可能被用来推断神经数据,包括某人的心理状态或大脑活动。专家们担心,当用户不知情时,例如在睡眠期间,这种活动可能在没有用户同意的情况下发生。
德国慕尼黑工业大学的伦理学家Marcello Ienca表示,商业神经设备已经构成了数据和安全风险,特别是对“精神隐私”的风险。“关于大脑和心智的数据应该受到加强保护,以防范心智信息未经授权地泄露。”他说。
保护精神隐私的一种方式是通过用户同意。UNESCO建议,这些同意需要是“事先、自由且知情的”,并且应包含随时退出使用技术的选项。
但未参与会议的美国乔治·华盛顿大学的技术伦理学家Vikram Bhargava认为,知情同意并非万无一失。“那些神经数据不仅提供了关于你的信息,还可能提供关于其他具有相似神经特征的人的信息。”
其他人则不同意这一观点。“人们思考方式的相似性更多与其居住地、生活方式有关,而不是与大脑运作方式有关。”Maldonado 说。
尽管如此,“拥有一个各国承诺遵守的全球标准是非常有力的。”美国杜克大学的法律学者兼伦理学家Nita Farahany说。
但美国在人工智能等领域出现的监管放松态势表明,法律工具可能不是解决方案。Farahany 说,相反,各国应鼓励开发者设计更多能为用户提供保护的功能。
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com