第2章:伦理答辩
上午9:57,临海医学院附属医院主楼A座17层。会议室C-1702的玻璃门被轻轻推开。郁栖砚抱着一台笔记本电脑走进去,第一眼看见的是长条会议桌后面的七张脸,他们都在盯着她。
伦理委员会主席宋惟海坐在最中间,白大褂外面套着深色西装马甲,这种混搭让他看起来既像临床医生,又像学院派学者。栖砚认得他,神经外科主任医师,在这家医院干了二十三年,是那种见过太多生死,因此对所有新技术都保持警惕的老派医生。宋惟海左侧是生物伦理学教授张敏,再往左是法律顾问林川,他们三人构成了这个委员会的”保守派三角”。右侧坐着两位年轻一些的委员,栖砚见过其中一位——中心副主任钱思齐,四十出头,据说当年也是激进派,但现在已经习惯了站在体制内说话。最右边那位戴着金丝眼镜的中年女性她不太熟,会议材料上写的是”患者代表”,名字叫周雨晴。
整个房间的色调是冷灰色系,窗帘半拉着,阳光只能从缝隙里挤进来一些,在深色木质地板上划出几道平行的亮痕。会议桌正对面那堵墙上挂着一块投影屏幕,栖砚需要在那块屏幕前站一个小时,向这七个人解释为什么她的”意识之光”项目值得获得伦理批准。
“郁老师,请坐。“宋惟海指了指会议桌前端的那把椅子,声音平和但没什么温度。
栖砚走过去,把笔记本电脑放在桌上,接好投影线。她穿的是一件白衬衫配黑色西装裤,头发扎成低马尾,简单到接近刻意。这是她答辩前特意选的装束——不能太学生气,也不能太正式,要让人觉得她是个认真的研究者,而不是个来推销概念的创业者。
“各位老师早上好。“栖砚站起来,双手按在桌沿上,“今天我向委员会申请的是BCI临床试验项目’意识之光’的伦理审批,主要目标是通过脑电信号解码技术帮助植物人状态和闭锁综合征患者重建交流通道。我会用大约四十分钟时间介绍项目背景、技术路线、风险评估和伦理考量,之后接受各位老师的提问和意见。”
她按下空格键,投影屏幕上出现第一页PPT:项目名称、申请人姓名、所属单位、申请日期。字体是思源黑体,行距和边距都严格按照医学院的规范调整过。栖砚在准备这份材料的时候花了整整三天,每一页的措辞都反复推敲过,确保既有足够的技术细节让专家信服,又不会过度学术化让患者代表听不懂。
“我们先看一下研究背景。“栖砚切到下一页,屏幕上出现一张脑电波形图,“全球范围内大约有12万到50万名植物人状态患者,他们有意识但无法与外界交流。传统的诊断方法依赖行为学评估,但这种方法的误诊率高达40%。最近十年,脑机接口技术让我们看到了新的可能性——通过解码患者的脑电信号,我们可以判断他们是否具有意识,甚至重建简单的交流通道。”
会议室里很安静,只有空调出风口传来低频的嗡嗡声。栖砚继续往下讲,介绍国际上几个经典的BCI研究案例,讲到剑桥大学的Adrian Owen团队在2006年用fMRI让一位植物人患者通过想象打网球和在房间里走动来回答”是”或”否”,讲到比利时的Steven Laureys团队用EEG技术实现了更便携的意识检测方案。她的语速很稳,每句话之间的停顿长度几乎相同,这是她多年做学术报告训练出来的习惯——不快不慢,给听众足够的时间消化信息,但又不会显得拖沓。
“那么’意识之光’项目和这些已有研究的区别在哪里?“栖砚切到关键的那一页,屏幕上出现一个流程图:脑电信号采集→预处理→特征提取→生成式AI解码→语义重建→输出文本。“我们的核心创新点在于引入大语言模型进行语义解码。传统BCI系统只能识别简单的’是/否’指令,或者让患者从预设的词库里选择单词。但’意识之光’项目希望做到更进一步——通过训练一个专门的生成式AI模型,我们可以将患者的脑电信号直接翻译成自然语言,让他们真正’说出’自己的想法。”
她停顿了一下,目光扫过会议桌对面的七张脸。宋惟海微微皱着眉头,右手握着一支笔,笔尖在会议材料上轻轻敲击。张敏教授靠在椅背上,双手交叠放在膝盖上,表情是标准的学者式中立。法律顾问林川在低头记笔记。钱思齐托着下巴,看起来在认真听。患者代表周雨晴的眼神有些茫然,显然对这些技术细节不太能跟上。
栖砚继续讲技术路线,讲他们如何采集健康志愿者和患者的脑电数据,如何设计对照实验,如何训练神经网络模型,如何评估解码准确率。她尽量用简洁的语言解释复杂的技术问题,在”卷积神经网络”和”Transformer架构”这些术语后面加上通俗的类比——“就像教计算机认字一样,我们教它认识大脑的语言”。
二十五分钟过去,栖砚讲到了伦理考量部分。这是整个答辩的核心,也是她最担心的环节。
“关于伦理风险,我们主要考虑三个方面。“她切换到新的一页,“第一,患者知情同意问题。由于患者本人无法表达意愿,我们会严格遵循医学伦理规范,由患者的法定监护人签署知情同意书,并且在整个试验过程中保障患者随时退出的权利。第二,数据隐私保护。所有脑电数据都会匿名化处理,存储在医院内网的独立服务器上,不会上传到任何公有云平台。第三,技术误读风险。我们会设置严格的验证流程,任何解码结果都必须经过多次重复测试,确保不会因为模型误判而曲解患者的真实意图。”
“郁老师,我打断一下。“宋惟海抬起手,声音比刚才更沉了一些,“你说的这三点我都看到了,书面材料里写得很详细。但我有一个更根本的问题——你怎么确定你的AI解码出来的内容,真的是患者想说的话,而不是AI自己生成的话?”
栖砚早就预料到会有这个问题。她深吸一口气,尽量让自己的声音听起来镇定:“这确实是技术上最大的挑战。我们的方案是建立一个多层验证机制。首先,我们会在健康志愿者身上做大量的对照实验,让志愿者在想象特定词语或句子的时候记录脑电信号,然后测试模型的解码准确率。其次,我们会设计一些简单的’测试问题’,比如让患者想象自己的名字、家人的名字、出生日期这些可验证的信息,如果模型能准确解码这些内容,就说明它确实在读取患者的真实意图,而不是随机生成。最后——”
“等等。“宋惟海又打断了她,“你这个逻辑有问题。健康志愿者的脑电信号和植物人患者的脑电信号完全不是一回事,你怎么能用前者的数据来验证后者的准确性?而且那些’测试问题’也不能证明什么,患者的家人可以提前告诉你他们的名字和生日,你的AI完全可以从这些信息里学习,然后伪装成是从患者脑子里读出来的。”
栖砚的手指在笔记本电脑的触控板上轻轻滑动,但没有切换页面。她能感觉到心跳在加速,但表情还维持着冷静:“宋主任说的这个风险我们确实考虑过。所以在实际试验中,我们会引入双盲机制。家属提供的信息不会直接给到模型训练团队,而是由第三方独立评估员保管。模型解码出来的结果会先交给评估员,由他们判断是否和家属提供的信息吻合。”
“那还是不够。“宋惟海摇了摇头,“你这套机制只能防止主观作弊,但防不了技术上的根本问题——你怎么区分’AI从脑电信号里读到了什么’和’AI根据统计规律猜了什么’?大语言模型的本质就是统计和预测,它生成的每一个字都是基于概率分布,而不是真正的’理解’。你把这种技术用在意识解码上,本质上是在赌运气,赌AI猜对了。”
会议室里的空气突然变得有些凝滞。栖砚能感觉到其他几位委员的目光都转向了她,等着她回应。她的大脑在高速运转,试图组织一个既有说服力又不会显得辩解的答案。
“我理解宋主任的担忧。“栖砚的声音依然平稳,但语速比刚才慢了一点,“确实,大语言模型的生成机制是概率性的,但这不代表它的输出就是随机的。我们训练的这个模型是专门针对脑电信号的,它学习的是’特定的脑电模式对应特定的语义’这种映射关系,而不是普通的文本生成。如果患者想象’水’,他的运动皮层、视觉皮层、语言区会产生特定的激活模式,模型学习的就是这种模式。这和ChatGPT那种开放域生成是完全不同的任务。”
“但你怎么证明这种映射关系是可靠的?“宋惟海追问,“脑电信号的信噪比很低,同一个人在不同时间想象同一件事,脑电波形都可能差别很大。你的模型怎么处理这种不确定性?”
“我们会用时序建模和注意力机制来提取稳定的特征。“栖砚回答,“具体来说——”
“郁老师。“坐在左侧的张敏教授突然开口,声音比宋惟海更温和,但语气里带着某种不容回避的锋利,“我理解你在技术层面做了很多努力,但我想问一个更本质的问题。你的项目叫’意识之光’,这个名字听起来很美好,但实际上你在做的事情是什么?你是在帮助患者表达他们的意识,还是在用AI代替他们表达?”
栖砚的手指在触控板上停住了。
“换句话说。“张敏教授微微前倾,双手依然交叠在膝盖上,但眼神变得更专注,“如果你的模型解码出了一句话,比如’我想喝水’,那么这句话的主语到底是谁?是患者,还是AI?患者提供了脑电信号,但这个信号本身没有语义,是AI把它翻译成了语言。那么这个过程中,真正在’说话’的是谁?”
会议室里安静了几秒钟。栖砚能听见自己的呼吸声,以及窗外隐约传来的救护车鸣笛声。她盯着投影屏幕,上面还停留在那张流程图的页面,脑电信号从左边输入,文本从右边输出,中间是一个标注着”生成式AI解码”的黑箱。
“AI是工具。“栖砚的声音比刚才低了一些,“就像助听器帮助听力受损的人听见声音,假肢帮助截肢患者恢复行动能力,AI在这里的作用是桥梁,它把患者无法表达的意识转换成可以被他人理解的语言。主语当然是患者,AI只是翻译器。”
“但助听器和假肢不会创造内容。“张敏教授说,“助听器只是放大声波,假肢只是模拟肢体动作,它们不会在原始信号的基础上’生成’新的东西。而你的AI会。大语言模型的本质就是生成,它会根据上下文、训练数据、概率分布来创造新的文本。那么当它输出’我想喝水’这句话的时候,你怎么确定这句话是患者的意思,而不是AI根据’患者是人,人需要喝水’这种常识推理出来的?”
栖砚的喉咙有些发紧。她知道张敏教授说的这个问题击中了整个项目最脆弱的那个点——生成式AI的不可解释性。你可以训练一个模型,让它在测试集上达到95%的准确率,但你永远无法百分之百确定,它输出的每一个字都是从输入信号里”读”出来的,而不是从训练数据里”猜”出来的。
“我承认这是一个技术上的挑战。“栖砚说,“但这不代表这件事不值得做。现在这些患者完全没有表达的渠道,他们的意识被困在失灵的身体里,外界只能通过猜测来判断他们的需求。如果我们的技术能让他们哪怕只有50%的概率准确表达自己的想法,那也比现状好得多。”
“50%的概率?“法律顾问林川突然抬起头,声音有些尖锐,“郁老师,你是在说,你的系统有一半的可能性会曲解患者的意图?”
“不,我的意思是——“栖砚意识到自己说错话了,试图补救,“我只是在做一个假设性的说明,实际上我们的目标准确率是90%以上——”
“但你刚才说的是50%。“林川打断她,“如果这个数字被写进知情同意书,你觉得会有多少家属愿意让他们的亲人参与这个试验?”
“林老师,您误解了我的意思。“栖砚的声音变得更加谨慎,“我说的50%是一个极端假设,用来说明即使在最保守的估计下,这项技术也比现状更有价值。但实际上,根据我们的预实验数据,模型在简单指令识别任务上的准确率已经达到87%,在更复杂的语义解码任务上也有72%的准确率。这些数字都会写进知情同意书,并且我们会向家属详细解释技术的局限性。”
“87%和72%。“宋惟海重复了一遍这两个数字,语气里带着某种难以辨别的情绪,“也就是说,每十句话里,有一到三句话可能是错的。如果患者想说’我很痛苦’,但你的AI解码成了’我很舒服’,那会发生什么?”
栖砚的手心开始出汗。她能感觉到答辩的走向正在偏离她预设的轨道,这些质疑比她准备的那些技术问题要更加根本,也更加难以回答。她想起昨天晚上在实验室里模拟答辩的场景,她的博士生李默扮演伦理委员会成员,提了一堆她觉得”过于挑剔”的问题,但现在看来,真正的答辩比模拟的要激烈得多。
“我们会设置纠错机制。“栖砚说,“每一次解码结果都会以多轮问答的形式反馈给患者,让他们通过脑电信号确认或否定。比如系统解码出’我想喝水’,我们会再问患者’你是想喝水吗’,如果患者的脑电反应是否定的,系统会重新解码。”
“那你又怎么确定患者的’确认’和’否定’信号是准确的?“宋惟海反问,“如果第一层解码可能出错,第二层确认凭什么就不会出错?你这是在用一个不确定的系统去验证另一个不确定的系统,逻辑上根本站不住脚。”
栖砚没有立刻回答。她盯着会议桌上的那杯水,透明的玻璃杯里装了大半杯凉白开,水面上映着天花板日光灯的倒影。她突然想起很多年前的一个场景,那时候她还在读本科,第一次去神经内科见习,带教老师让她观察一位肌萎缩侧索硬化症晚期患者。那位患者已经完全丧失了运动能力,只有眼球还能微弱地转动,医生用眨眼次数和他交流——眨一次代表”是”,眨两次代表”否”。栖砚站在病床边看着那双眼睛,缓慢地、费力地眨了一下,然后是漫长的停顿,然后又眨了一下。她不知道那算是一次还是两次,也不知道那位患者是真的想表达什么,还是只是眼睛疲劳了。
“宋主任,我理解您的担忧。“栖砚的声音依然很稳,但语调里多了一点别的东西,不完全是防御,也不完全是说服,更像是某种请求,“但我想说的是,医学本身就是在不确定性中前进的。我们给患者开药,不能保证100%有效;我们做手术,不能保证100%成功;我们诊断疾病,也会有误诊的可能。如果因为存在不确定性就停止尝试,那医学就不会有任何进步。BCI技术现在还不完美,但它是唯一有可能帮助这些患者的方向。我们能做的就是尽可能提高准确率,尽可能降低风险,尽可能保护患者的权益,然后在严格的伦理监督下推进研究。”
宋惟海没有说话,只是盯着她看了几秒钟,然后低头在会议材料上写了点什么。
“郁老师,我能问一个问题吗?“坐在最右边的患者代表周雨晴突然开口,声音有些犹豫,“我看材料里说,你的项目需要在患者头上安装电极,这个过程会不会很痛苦?我的意思是,那些患者本来就已经很痛苦了,如果我们的试验还要让他们遭受额外的痛苦,那是不是有点……”
“不会有创伤。“栖砚立刻回答,“我们用的是无创脑电采集设备,就像一个帽子戴在头上,不需要手术,也不会造成疼痛。整个过程对患者的身体没有任何损害。”
“那……如果试验失败了呢?“周雨晴又问,“我的意思是,如果最后发现这个技术不管用,那患者和家属的期望落空,他们会不会更痛苦?”
这个问题让栖砚沉默了一瞬间。她知道这是一个很难回答的问题,因为它触及的不是技术问题,而是心理和伦理问题。给绝望的人希望,然后又让希望破灭,这种伤害有时候比从未给过希望更残忍。
“我们会在知情同意书里明确说明,这是一项早期临床试验,不保证一定有效。“栖砚说,“而且我们会在整个过程中保持和家属的充分沟通,让他们理解技术的局限性,避免产生不切实际的期待。”
“但你无法控制他们的期待。“坐在中间的钱思齐副主任突然说话,声音很轻,但每个字都很清晰,“一个家属看到自己的亲人躺在病床上三年五年,突然听说有一种技术可能让他们重新’说话’,你觉得他们会理性地评估这个技术的可靠性吗?他们只会抓住这根救命稻草,哪怕只有1%的可能性,他们也会相信。到时候你的项目如果失败了,或者解码出来的内容和家属的期待不符,那种失望和愤怒你能承担吗?”
栖砚的手指在笔记本电脑的边缘轻轻敲击,这是她紧张时的习惯动作。她能感觉到答辩的氛围已经从技术讨论转向了更深层的质疑,这些委员不是在评估她的方案是否可行,而是在评估她是否有资格做这件事,是否有能力承担这件事可能带来的后果。
“我会承担。“栖砚说,“这是我的项目,我会对所有的结果负责,无论是成功还是失败。”
“你凭什么承担?“张敏教授的声音突然变得更尖锐,“郁老师,恕我直言,你今年多大?27岁?博士毕业几年?一年?你有多少临床经验?你见过多少患者?你和多少家属谈过话?你凭什么觉得你能承担这种责任?”
栖砚的后背瞬间绷直了。她盯着张敏教授,想要反驳,但不知道该说什么。她想说她在实验室里干了六年,想说她读了上百篇相关文献,想说她的技术方案经过了反复验证,但她知道这些都不是张敏教授想听的答案。张敏教授想听的是”我有十年临床经验""我处理过上百个类似病例""我见过无数次家属崩溃大哭的场景”,但栖砚没有这些。她只是一个刚毕业的博士,一个准PI,一个在实验室里对着电脑屏幕和脑电波形干了六年的研究者。
“我知道我的临床经验不足。“栖砚听见自己在说话,声音比刚才更低,但依然很稳,“但这不代表我没有能力做这件事。脑机接口本身就是一个跨学科领域,它需要神经科学、计算机科学、工程学、伦理学的综合能力,而不仅仅是临床经验。我的优势在于我理解技术,我知道AI模型的边界在哪里,我知道脑电信号的特性是什么,我知道如何设计实验来验证假设。至于临床部分,我会和有经验的医生合作,会请神经内科和神经外科的专家做顾问,会严格遵循伦理规范。我不是一个人在做这件事,我有团队,有合作者,有制度保障。”
“但最后签字的是你。“宋惟海说,“出了问题,要负责的也是你。”
“我知道。“栖砚说。
会议室里又安静了几秒钟。栖砚能听见空调出风口的嗡嗡声,以及远处电梯运行的轻微震动声。她的手心已经完全湿透了,但她没有去擦,只是保持着站立的姿势,等待下一个问题。
“我还有一个问题。“张敏教授说,“你的项目名称叫’意识之光’,技术路线是用生成式AI解码脑电信号。那么我想问,你是在帮助患者表达意识,还是在用AI代替患者思考?或者更直白一点——“张敏教授停顿了一下,目光直视着栖砚,“您是在把人脑外包给AI吗?”
这句话像一把刀,准确地切在栖砚心脏的某个位置。她盯着张敏教授,大脑里闪过无数个想要反驳的句子,但每一句话在说出口之前都被另一个声音拦住了——“如果你否认,你就是在回避问题;如果你承认,你的项目就完了。”
“我不是在把人脑外包给AI。“栖砚的声音依然平静,但语速比刚才更慢,“我是在用AI帮助人脑完成它本来应该能完成但因为疾病或损伤而无法完成的功能。这两者的区别在于,前者是替代,后者是辅助。如果一个患者因为运动神经元损伤而无法说话,但他的大脑里依然有完整的语言功能,依然在生成想法、组织句子、表达意图,只是这些信号无法通过喉咙和嘴巴转化成声音。那么我的技术做的事情,就是绕过那个损坏的通道,直接从大脑里读取信号,然后翻译成语言。这不是外包,这是桥梁。”
“但你的AI不只是读取信号,它还在生成语言。“张敏教授说,“这就是我说的’外包’。患者的大脑里可能只有一些模糊的、碎片化的意图,但你的AI会把这些意图扩展成完整的、流畅的、符合语法的句子。那么这个扩展的过程,是谁在做?是患者,还是AI?”
栖砚没有立刻回答。她盯着投影屏幕上的那张流程图,脑电信号从左边输入,文本从右边输出,中间是那个黑箱。她突然意识到,张敏教授说的这个问题,不仅仅是一个技术问题,也不仅仅是一个伦理问题,它是一个哲学问题——当你用机器来扩展人类的能力时,那个被扩展出来的部分到底属于谁?
“我认为……”栖砚的声音有些迟疑,“语言本身就是一种扩展。当我们说话的时候,我们的大脑里其实没有完整的句子,只有一些概念、意图、情绪,然后我们的语言系统会把这些东西组织成词语和语法。所以从这个意义上说,所有的语言表达都是一种’生成’,都是大脑根据内在的意图创造出来的外在形式。AI在这里做的事情,和人类的语言系统做的事情本质上是一样的——它接收信号,理解意图,然后生成相应的表达。唯一的区别是,健康人的语言系统是生物性的,而我们的系统是电子的。”
“但生物性的语言系统是患者自己的,电子的系统不是。“张敏教授说,“这就是问题的核心。当你用一个外部的、非自我的系统来代替患者内在的、自我的功能时,你就是在改变这个人的主体性。他表达出来的话,到底在多大程度上还是’他的话’?”
栖砚的喉咙发紧,她感觉到一种难以名状的压迫感,像是有什么东西堵在胸口,既无法吐出来也无法咽下去。她知道张敏教授说的这些话击中了她一直以来试图回避的那个问题——技术的边界在哪里?当你用机器来修复人类的功能时,你到底是在帮助他们,还是在改变他们?
“我理解您的担忧。“栖砚说,声音里带着一点疲惫,“但我想说的是,如果我们因为这种哲学上的顾虑就停止尝试,那这些患者就永远不会有表达的机会。他们的主体性已经被疾病剥夺了,他们的意识被困在失灵的身体里,外界只能通过猜测来判断他们的需求。我的技术可能不完美,可能会在某种程度上’改变’他们表达的方式,但至少它给了他们一个可能性,一个重新和世界建立联系的可能性。我不认为这是在’外包人脑’,我认为这是在归还他们本来就应该拥有的权利——表达自己的权利。”
张敏教授盯着她看了几秒钟,然后慢慢靠回椅背上,没有再说话。
会议室里沉默了十几秒钟。栖砚能感觉到自己的心跳,一下一下,撞在胸腔上,像是有人在用拳头敲门。她不知道这些委员在想什么,不知道他们会不会批准她的项目,也不知道自己刚才的那些回答是否足够有说服力。她只是站在那里,盯着投影屏幕上的那张流程图,等待判决。
“好。“宋惟海突然开口,“我们今天先到这里。郁老师,你的材料我们收到了,委员会会在一周内给出评审意见。如果有需要补充的材料,我们会通过邮件通知你。”
栖砚点了点头,关掉投影,拔下连接线,把笔记本电脑合上,抱在胸前。她向七位委员鞠了一躬,然后转身走出会议室。
走廊里很安静,只有远处护士站传来轻微的交谈声和病历车轮子滚动的声音。栖砚抱着笔记本电脑,沿着长长的走廊往电梯方向走,脚步声在大理石地面上发出轻微的回响。她的后背已经被汗浸湿了,衬衫贴在皮肤上,有些不舒服。
电梯门打开,栖砚走进去,按下B1的按钮。电梯开始下降,数字在显示屏上一个一个跳:17、16、15、14……她靠在电梯壁上,闭上眼睛,深深吸了一口气。
“您是在把人脑外包给AI吗?”
张敏教授的那句话还在她脑子里回响,像是一个挥之不去的回音。栖砚知道那不只是一个答辩中的刁难,而是一个真正的质疑,一个她必须面对的问题。她在实验室里干了六年,训练了无数个模型,跑了无数次实验,但她从来没有认真想过这个问题——当你用AI来解码人类的意识时,你到底是在读取意识,还是在生成意识?
电梯在B1层停下,门打开,栖砚走出去。地下一层的走廊比楼上更窄更暗,墙壁是灰白色的,天花板上的日光灯发出冷白色的光,照在地面上,让整个空间看起来像是一个巨大的实验室冷库。栖砚沿着走廊往前走,经过几个紧闭的房间门,上面挂着”核磁共振室""脑电实验室""神经影像中心”的标识牌,最后在走廊尽头停下,刷卡,推开一扇标着”神经医学中心·BCI实验室”的门。
实验室里没有人。栖砚走进去,把笔记本电脑放在工作台上,然后在椅子里坐下。实验室很小,大约只有三十平方米,三面墙都是白色的柜子和设备架,堆满了脑电采集设备、信号放大器、电极帽、导电膏、数据线。靠墙的那张长桌上摆着三台电脑,屏幕上都是密密麻麻的代码和波形图。空调出风口在天花板的角落里,发出低频的嗡嗡声,整个房间的温度常年保持在22℃,湿度45%,这是脑电设备的最佳工作环境。
栖砚盯着对面墙上贴的那张A4纸,上面用黑色马克笔写着几行字:
“意识之光”项目时间表
- 伦理审批:2028年7月15日
- 设备采购:2028年8月
- 志愿者招募:2028年9月
- 预实验:2028年10月-12月
- 正式临床试验:2029年1月
今天是7月15日,伦理审批答辩日。但现在看来,这个时间表可能要推迟了。栖砚不知道委员会会给出什么样的评审意见,但她能感觉到,他们的态度并不乐观。宋惟海的质疑,张敏教授的追问,钱思齐的担忧,这些都不是能轻易解决的问题。
她打开笔记本电脑,登录邮箱,看到了三封未读邮件。第一封是博士生李默发来的,询问答辩情况;第二封是合作方某脑电设备公司发来的产品报价单;第三封是——
栖砚的目光停在第三封邮件的发件人名字上:深脉科技·AI算力资源申请回执。
她点开邮件,看到一行简短的回复:
“您好,郁老师。关于您申请的GPU算力资源,我们需要进一步了解项目的具体需求和应用场景。如果方便,可以安排一次线下沟通。联系人:陆寥川,联系方式:138xxxxxxxx。”
陆寥川。
栖砚盯着那个名字看了两秒。她昨天凌晨已经给这个号码发过短信了——通过校友网络查到他在深脉做运维,又托了两层关系要到手机号。当时她不确定对方还记不记得自己,所以短信里只写了”郁栖砚,临海医学院”,没提别的。
现在看来,深脉的官方流程也给了同一个联系人。也许是巧合,也许是他们内部就他一个人负责这类对接。
栖砚关掉邮箱,靠在椅背上,闭上眼睛。她的大脑里闪过刚才答辩时的那些画面,宋惟海皱着眉头的脸,张敏教授那句”您是在把人脑外包给AI吗”,钱思齐说的”你凭什么觉得你能承担这种责任”。这些质疑像是一把把刀,切在她内心深处那个她一直不愿意承认的伤口上——她不确定自己是不是真的有能力做这件事,不确定自己的技术是不是真的可靠,不确定自己是不是真的在帮助那些患者,还是只是在用他们来验证自己的理论。
但她没有别的选择。
栖砚睁开眼睛,拿起手机,拨出那个号码。不管怎样,下午的会面已经约好了。
电话响了三声,被接起来。
“郁老师?“对面传来一个男声,声音有些沙哑,像是刚睡醒,“我是寥川。您的短信我看到了。”
“嗯,“栖砚说,“刚才又收到了深脉的官方回执,没想到联系人也是你。”
“是,这类科研合作的算力申请一般都归我对接。“对面的声音清醒了一些,“郁老师,关于算力的事情,我们可以见面详细聊聊,您看什么时候方便?”
“今天下午可以吗?“栖砚听见自己在说话,声音比刚才更加平静,“如果你有时间的话。”
对面沉默了一秒钟,然后说:“可以。下午三点,星巴克,您看哪家店比较方便?”
“市民中心那家吧。“栖砚说,“我知道在哪里。”
“好,那下午三点见。”
“好。”
栖砚挂断电话,把手机放在桌上,盯着屏幕上的通话记录。她不知道这通电话会带来什么,不知道那个叫寥川的人能不能帮到她,也不知道自己的项目到底能不能继续下去。但她知道,她必须尝试。
因为除了尝试,她没有别的路可以走。
栖砚站起来,走到实验室角落的那个小冰箱前,拉开门,拿出一瓶矿泉水,拧开盖子,喝了一大口。冰凉的水流过喉咙,像是某种短暂的清醒剂,让她的大脑稍微缓过来一点。她转身,看着实验室里那些设备,脑电采集仪、信号放大器、电极帽,它们静静地躺在工作台上,等待着被使用,等待着去解码某个人的意识,等待着去证明或推翻她的理论。
她想起六年前自己第一次走进实验室的那个下午,导师带她参观设备,给她讲脑电信号的基本原理,告诉她”大脑是宇宙中最复杂的结构,我们对它的了解还不到1%“。那时候她觉得这句话很酷,很有挑战性,她觉得自己选择了一个值得用一生去探索的方向。但现在,六年过去了,她依然不知道大脑到底是怎么工作的,不知道意识到底是什么,不知道那些从电极里采集到的微弱电信号到底代表着什么。她只是在用数学模型去拟合数据,用统计方法去寻找规律,用AI去猜测那些她无法真正理解的东西。
“您是在把人脑外包给AI吗?”
栖砚闭上眼睛,深深吸了一口气。
不是的,她在心里对自己说,我不是在外包人脑,我只是在搭建一座桥,一座连接意识和世界的桥。至于这座桥是不是真的通向患者的内心,还是只是通向AI的黑箱,那是我必须用接下来的实验去验证的事情。
她睁开眼睛,看了一眼墙上的时钟,11:47。距离下午三点还有三个多小时。她需要准备一份材料,向那个叫寥川的人解释她的项目需要多少算力,需要什么样的GPU配置,需要跑多久,需要存储多少数据。她需要说服他,让他相信这个项目值得支持,值得冒险,值得用深脉科技的资源去赌一个不确定的未来。
栖砚坐回椅子里,打开笔记本电脑,新建一个文档,开始打字。
“‘意识之光’项目算力需求说明”
她的手指在键盘上快速移动,屏幕上逐渐出现一行行文字,技术参数、模型架构、训练时长、数据规模。她写得很快,很专注,像是在用这种方式来驱散刚才答辩时那种压迫感,来重新确认自己知道自己在做什么,知道自己要去哪里。
窗外的救护车鸣笛声又响起来了,由远及近,然后又由近及远,最后消失在城市的背景噪音里。栖砚没有抬头,继续打字,一个字一个字,一行一行,直到文档的末尾,直到她觉得自己已经说清楚了所有需要说清楚的事情。
然后她保存文件,关上电脑,站起来,走出实验室,走进电梯,按下1楼的按钮,准备去赴那个她不知道会带来什么结果的约。