史上首次!MIT研究用人工神经网络控制动物大脑活动
来源 | 新智元(ID:AI_era)
编辑 | 肖琴
MIT的三位科学家首次用大脑视觉神经网络模型,实现了控制动物大脑的神经元活动。这是使用人工神经网络来理解真实神经网络的一大突破,相关研究发表在上周Science杂志。
这不是科幻:人工神经网络可以用来控制动物的大脑活动了! 5月2日发表在Science杂志的一篇论文中,来自MIT的三位神经科学家对模拟大脑视觉皮层的计算模型进行了迄今为止最严格的测试。 三位作者分别是MIT大脑与认知科学系的负责人、麦戈文脑研究所调查员James DiCarlo,以及博士后研究员Pouya Bashivan和Kohitij Kar。 他们利用目前最好的大脑视觉神经网络模型,设计了一种新方法来精确地控制单个神经元和位于网络中间的神经元群。 在一项动物研究中,研究团队随后表明,他们利用从计算模型中获得的信息创建了一些图像,这些图像能够强烈地激活所选定的大脑神经元。 具体来说,Bashivan等人建立了一个人工神经网络来模拟目标视觉系统的行为,并用它来构建图像,这些图像要么能够广泛地激活大量神经元,要么选择性地激活一个神经元群,同时保持其他神经元不变。 神经网络模型设计了这些图像,它们能够刺激单个神经元的活动 然后,他们分析了这些图像在猕猴视觉皮层产生预期效果的有效性。结果显示,这些操作有很强的效果,并对神经元群产生了相当大的选择性影响。利用这些图像,神经网络被证明可以再现动物神经反应的整体行为。 研究结果表明,这些模型与大脑非常相似,可以用来控制动物的大脑状态。 James DiCarlo表示,这项新研究有助于确定视觉模型在脑科学研究中的有用性。此前,关于这类视觉模型是否准确地模拟了视觉皮层的工作方式存在激烈的争论。 James DiCarlo “人们质疑这些模型是否能够提供对视觉系统的理解,”James DiCarlo 他们在下面的视频采访更详细地阐述了这个研究。 在过去几年里,DiCarlo等人开发了基于人工神经网络的视觉系统模型。每个网络都以一个由模型神经元(model neurons)或节点(nodes)组成的任意架构开始,这些神经元或节点可以以不同的强度(也称为权重)相互连接。 然后,研究人员用一个包含超过100万张图像的库中训练这些模型。当研究人员向模型展示每张图像,以及图像中最突出的物体(比如飞机或椅子)的标签时,模型通过改变连接的强度来学习识别物体。 很难准确地了解这个模型是如何实现这种识别的,但是DiCarlo和他的同事之前已经证明,这些模型中的“神经元”产生的活动模式与动物视觉皮层响应相同图像时的活动模式非常相似。 在这项新研究中,研究人员想要测试他们的模型是否能够执行一些以前尚未被证明的任务。特别是,他们想看看这些模型是否可以用来控制动物视觉皮层的神经活动。 他们进行了几个闭环的神经生理学实验:在将模型神经元与每个记录的大脑神经位置匹配之后,使用该模型合成了全新的“控制器”(controller) 合成程序概述 如上图所示,神经控制实验分四步完成:(1)通过训练大量标记的自然图像来优化神经网络的参数;(2)ANN “神经元” 被映射到每个记录的 V4 神经位点,构成可计算的预测模型。(3)然后将得到的模型用于合成单个位点或群体控制的 “控制器” 图像。(4)最后由实验者将由这些图像指定的发光模式应用于受试者的视网膜,并测量神经部位的控制程度。 上图(D)显示了猴 M(黑色),猴 N(红色)和猴 S(蓝色)大脑中神经位点的感受野。 然后,研究人员将这些图像呈现给每个受试者,以测试模型控制受试者神经元的能力。在一项测试中,他们要求模型尝试控制每个神经元,使其激活程度超过其通常观察到的最大激活水平。研究人员发现,模型生成的合成刺激成功地驱动了68%的神经位点超出了它们的自然观察激活水平。 单个神经控制的一个示例 在另一项更严格的测试中,该模型显示,它能够选择性地控制整个神经亚群,激活一个特定的神经元,同时使其他记录的神经元失活(成功率达到76%)。 神经元群的控制 接下来,研究人员使用这些合成的controller图像来研究模型预测大脑反应的能力是否适用于这些图像。他们发现该模型确实相当准确,预测了54%的由图像引起的大脑反应模式,但它显然还不完美。 “到目前为止,对这些模型所做的工作是预测神经会对其他刺激产生什么反应,这些刺激是他们以前从未见过的。”Bashivan说:“这次的研究主要的不同之处在于,我们更进了一步,利用这些模型将神经元驱动到所需的状态。” 为了实现这一目标,研究人员首先创建了大脑的视觉区域V4中的神经元和计算模型中的节点的一对一映射。他们通过分别向动物和模型展示图像,并比较它们对相同图像的反应来实现这一点。V4区域有数百万个神经元,但在这项研究中,研究人员每次为5到40个神经元的亚群创建映射。 DiCarlo说:“一旦每个神经元都有一个任务,这个模型就可以让你对那个神经元做出预测。” 然后,研究人员开始研究他们是否能利用这些预测来控制视觉皮层中单个神经元的活动。第一种类型的控制,他们称之为“拉伸”(stretching),即向实验者展示一幅图像,该图像将驱动特定神经元的活动,其强度远远超出通常由“自然”图像引发的活动,,这些“自然”图像与用于训练神经网络的图像类似。 单个神经位点的最大驱动(拉伸) 研究人员发现,当他们向动物展示这些“合成”图像时,目标神经元的反应与预期相符。这些“合成”图像是由模型生成的,不像自然物体。平均而言,神经元对这些图像的反应要比它们看到自然图像时活跃约40%。 这是科学家第一次实现这种控制。 神经科学的一个普遍趋势是,实验数据收集和计算建模在某种程度上是独立进行的,导致很少有模型验证,因此没有可测量的进展。这项的工作使这种“闭环”方法重现生机,同时进行模型预测和神经测量,这对成功构建和测试最接近大脑的模型至关重要。 研究人员还表示,他们可以利用该模型来预测V4区域的神经元对合成图像的反应。之前对这些模型的大多数测试都使用了与训练模型相同的自然图像。MIT的研究团队发现,这些模型在预测大脑对合成图像的响应方面的准确率约为54%,而使用自然图像时的准确率接近90%。 Bashivan说:“从某种意义上说,我们正在量化这些模型在训练领域之外做出预测的准确性。理想情况下,无论输入是什么,模型都应该能够准确预测。” 研究人员希望在接下来的研究中,通过让模型吸收他们从合成图像中学到的新信息来提高模型的准确性。 研究人员表示,这种控制可能对想要研究不同神经元之间如何相互作用以及它们之间如何连接的神经科学家有用。将来,这种方法有助于治疗抑郁症等情绪障碍。研究人员目前正致力于将他们的模型扩展到下颞叶皮层,进入杏仁核,这是参与情绪处理的区域。 Bashivan说:“如果我们有一个很好的神经元模型,这个模型可以让我们的神经元参与体验情绪,或者引发各种各样的紊乱,那么我们就可以用这个模型来驱动神经元,从而帮助改善这些紊乱。” “他们成功地做到了这一点,真的很了不起。就好像,至少对那个神经元来说,它的理想图像突然变成焦点,神经元突然被提供了它一直在寻找的刺激,”匹兹堡大学生物工程副教授Aaron Batista评价道:“这是一个了不起的想法,一项了不起的壮举。这可能是迄今为止,对使用人工神经网络来理解真实神经网络的最强有力的验证。” 编译来源:MIT News 参考链接: [1].http://news.mit.edu/2019/improved-deep-neural-network-vision-systems-just-provide-feedback-loops-0429 [2].https://science.sciencemag.org/content/364/6439/eaav9436