当科技学会聆听沉默, 脑机接口如何让失语者重获“心声”
2026-04-06 20:13:40 - 佚名
2026年4月,一段看似来自未来的视频在网络上引发了震动。画面中,一位名叫肯尼斯·肖克的男士静静地坐着,嘴唇未曾开合,但扬声器里却清晰地传出他的声音:“我正在用我的意念和你们对话。”

这并非科幻电影的特效,而是肯尼斯真实的声音。作为一名肌萎缩侧索硬化症(ALS)患者,他曾眼睁睁看着自己的身体被疾病“冻结”,最终失去了说话的能力。然而,在植入了Neuralink公司的N1脑机芯片后,他再次与世界建立了连接。这背后,是一场关于技术、生命与尊严的深刻变革。
并非“读心术”:一场精准的神经信号翻译
很多人会好奇:这难道就是传说中的“读心术”吗?其实不然。这项技术并未窥探肯尼斯脑海中所有飘忽不定的念头,它更像一位专注的翻译官,只负责解读一种特定的“语言”。
当肯尼斯想要说话时,他的大脑会向嘴、舌、喉等发声器官发送指令。尽管这些指令因疾病无法被执行,但N1芯片却成功捕捉到了这些“说话的意图”。系统将这些复杂的神经信号,拆解成语言的最小声音单位——音素,再像拼图一样,将它们迅速组合成完整的词句,最终通过电脑合成声音播放出来。
简单来说,肯尼斯并非“想什么就说什么”,而是必须清晰地“想象”自己正在说话。这个过程,是意图的传达,而非思维的广播。
从朗读到默念:一段人机共学的旅程
这套系统并非一蹴而就,它需要使用者与机器之间进行一场耐心的“磨合”。Neuralink的工程师为肯尼斯设计了一套循序渐进的训练方案。
起初,肯尼斯需要大声朗读预设的句子,让系统记录下他“说话”时的神经信号,建立起最初的信号与词语的对应关系。接着,他转为只做口型、不发出声音的默念,考验系统在无声状态下的识别能力。最后,他连口型也无需做出,仅凭想象说话,系统便能精准地捕捉并解码他的意图。
这个过程,不仅是机器的学习,更是肯尼斯的“复健”。他需要重新学习如何调动那些沉睡的神经通路,与芯片协同工作,最终实现意念的“发声”。
找回“原版”的声音:技术背后的人性温度
这项技术最打动人心的,莫过于它让肯尼斯找回了自己的声音。
随着ALS病情的加重,肯尼斯的声音也日渐沙哑、模糊。Neuralink团队找到了他2020年患病前的录音,利用人工智能技术,成功复刻了他当年的音色。当设备第一次用那个熟悉而清晰的声音说出“我爱你”时,他的妻子谢丽尔瞬间泪目。
这不再是一个冰冷的机器合成音,而是那个她深爱多年的丈夫的声音。技术在这里,不再是冰冷的代码和电路,而是承载情感与记忆的载体,是连接过去与现在、自我与家人的桥梁。
未来的回响:从恢复语言到重塑感知
肯尼斯的案例,仅仅是Neuralink宏伟蓝图的一个起点。埃隆·马斯克表示,恢复说话能力只是第一步。公司正在推进一个名为“盲视”的项目,旨在绕过损坏的眼睛,直接刺激大脑视觉皮层,为盲人恢复视力。未来,甚至有望恢复听力。
当然,这项技术目前仍处于临床试验阶段,尚未获得官方批准上市。从“想”到“说”之间仍有几秒的延迟,对话的流畅性有待提升。但无论如何,对于肯尼斯和他的家人而言,这已经是一次生命的重启。
科技的意义,或许不在于创造超人,而在于修复那些被命运剥夺的平凡。当一个人无法再用身体表达自我时,科技为他打开了一扇通往内心世界的窗,让沉默的灵魂,再次发出回响。