在脑机接口“商业着陆”渐行渐近的趋势下,从科幻变现实,正在激发资本的投资热情。基于本身的前沿技术属性,布局企业大多是近10年新成立的公司,包括马斯克在2017年创立的Neuralink公司,国内脑机接口企业大都在2015年及以后成立,以非侵入式技术路线为主。
脑机接口技术是脑科学领域一个非常核心的底层工具,纵观目前国内的脑科学领域创企,不管是人工智能,或者是类脑智能,大多只是聚焦在现有技术的场景搭建,但在前端核心底层硬件层面,包括整个脑机接口系统的优化,植入装备的研发,反而很少。
目前在植入式脑机接口领域缺乏临床使用的工具和装备,尤其国内电极、芯片等核心器件仍然依赖进口。脑虎科技在这种情况下应运而生,依托中科院研发基础,进行科技成果商业化落地,针对的是植入式脑机接口这个“黑科技赛道”,这是全球初兴的一个行业,是从“0”到“1”的探索。
脑机接口的领域挑战性:多学科交叉,多器件整合,软硬件的结合
“脑机接口是一个复杂的系统,”脑虎科技首席科学家陶虎教授表示,“大脑很重要,但很不幸大脑是我们最复杂又最脆弱的一个器官。如果我们要做脑机接口的话,会涉及到电极、芯片、植入装置、算法,整个一起我们要做集成、封装,然后我们要做生物安全性、长期载体稳定性等。”
陶虎展开说道,“首先是电极,这是直接来读取并写入神经活动的前端,同时需要有芯片,从大脑里面读取到这么多神经元活动的信息后,需要芯片来处理信号,包括滤波、放大、数模转换、解码,都是芯片的工作。而芯片是一个硬件,其中运行的是算法,所以我们需要有神经编解码算法,从大脑里解读这么多看似无序的或者杂乱无章的信号,用以解析大脑里面的意图,最后转化为控制外部设备的具体指令,实现对外部设备的控制,整个过程主要包括采集、处理、执行、反馈等环节。”
其次,技术的核心器件已然用到了半导体的加工封装设备,这是一个非常大的基础投入,陶虎透露,“目前仅仅在电极和线(MEMS加工线)的研制上,我们的微系统所已投入接近20亿了。”无疑这是在科研经费层面上的一个高门槛。
最后,植入式电极势必需要植入装置,正如马斯克的Neuralink在最近的两次新闻发布会上都展示了他们的植入式机器人,向公众解释了电极是如何微创并快速有效的植入,包括电极、芯片,都需要封装在一个像钮扣的装置里。植入大脑后,因为无线的装置需要完成通讯和供电的功能,装置里需要用天线做无线充电的过程,因此还需要涉及到电池。
面对如此复杂的系统工程,陶虎表示,目前无论科研单位或是企业,能够将电极、芯片、算法、植入、临床、材料,还有封装以及安规合并于一体的,相对比较少。现实是,有的只做芯片,有的只做电极,有的纯做算法,有的可能只做动物实验。陶说道,“正因为这个系统的复杂性,造成脑机接口领域非常有挑战性,一个维度来讲它是多学科交叉,另一个维度来讲,它是多器件的整合,软硬件的整合。”
从科研走向产业化的脑科学创企 团队组建需多学科交叉
脑机接口本身是一个多学科交叉的领域,涵盖了神经科学、微电子学,因为涉及芯片、电极,包括计算机科学,涉及编解码算法,还有材料学、临床医学、生物医学工程,甚至还有心理学跟伦理学,交叉程度极高。陶虎表示,他最初在研究所组建科研团队时就有意识的以学科交叉作为团队组建的宗旨。在脑虎科技初创的时候,公司架构也是这样搭建的,来自不同学科背景的博士研究生,有医学、材料学、机械工程、电子工程、计算机科学等。
脑虎科技创始人、CEO彭雷曾公开表示,脑虎科技致力于应用最前沿的科技探索人类大脑这一神秘未知领域,在脑虎科技,来自各个领域、各种背景的顶级人才相互协作、碰撞、创新。公司提供脑机接口的底层核心工具和平台,为脑科学的各分支领域输出解决方案,这不仅仅是做加法,而是在做乘法,以爆炸性的速度开发技术、开拓场景。
脑机接口技术被称作是人脑与外界沟通交流的“信息高速公路”,是公认的新一代人机交互和人机混合智能的关键核心技术。脑机接口已经走过了科学幻想和概念验证阶段,下一步将迎来技术爆发。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。