张学勇移民公司
微信扫一扫 分享朋友圈

已有 83 人浏览分享

开启左侧

别找借口了!扫描大脑就可以知道你注意力是否集中

[复制链接]
83 0
                                                                                       

  通过在受试者头部绑上一大堆电极,科学家就能够判断他们的注意力是否集中。如果他们听到并理解别人的谈话内容,则大脑扫描结果中就会出现特定的信号。


研究人员鉴别出了一些特定的脑电反应,能够反映出某个词语与之前所出现词语相似或不同的程度。


  对于老年人,还可以利用该技术来判断他们能否跟上日常的对话,并以此为基础,判断是否有痴呆症的迹象。


  当聆听者理解语音时,可以看到他们头部的中后部会出现一个很强的反应信号(上排,呈蓝色和绿色)。当他们无法理解语音时,信号就会完全消失(下排,变为红色和黄色)。

  新浪科技讯 北京时间3月3日消息,据国外媒体报道,结婚人士常常会怀疑另一半没有在听自己说话。现在,神经科学家想到了一种新的技术,能够判断你的伴侣是否在注意听你说话,而不只是点头或随口附和。

  通过在受试者头部绑上一大堆电极,科学家就能够判断他们的注意力是否集中。如果他们听到并理解别人的谈话内容,则大脑扫描结果中就会出现特定的信号。从顶叶获得的大脑信号可以有多种用途,从追踪幼儿的语言能力发展,到获取老年人患上痴呆症的早期征兆。

  爱尔兰都柏林三一学院和美国罗彻斯特大学的神经科学家合作完成了这一研究,他们对志愿者的脑电波活动进行了记录。这些志愿者头上戴着脑电图扫描仪的电极,用来记录他们收听有声书时的大脑反应。

  在日常的交流中,我们通常每分钟会说120到200个单词。对聆听者而言,想要以这样的速率理解对方的话语,同时不让对话脱节,他们的大脑就必须以非常快的速度来理解每个词的意思。

  研究人员鉴别出了一些特定的脑电反应,能够反映出某个词语与之前所出现词语相似或不同的程度。这些反应能用来判断说话者的语句是否被理解,以及大脑如何推断这些语句的含义。

  研究负责人、三一学院的埃德?莱勒(Ed Lalor)教授说:“在我们完全理解大脑理解语句时的运算能力之前,还有很多的工作需要完成。不过,我们已经开始寻找大脑用来计算语句含义的其他方式,以及这些计算与计算机执行的计算有何不同。我们希望这一新方法在应用于我们设想的一些方式时,能带来真正的改变。”

  这项研究开始于利用使现代计算机和智能手机“理解”语音的最新技术,而这一过程与人类的理解方式截然不同。在漫长的演化基础上,人类婴儿学习说话的能力或多或少是与生俱来的,但计算机和智能手机则不同,它们需要大量的训练。不过,由于现代计算机和智能设备运行速度都很快,因此它们能非常迅速地完成训练。

  将大量的例子输入计算机,并要求其识别哪些词语会成对出现,哪些词语不会,计算机就能了解一些词语,比如“蛋糕”和“派”,肯定是指某些类似的东西。最终,计算机能获得一组数字化的度量标准,来判断任一单词与其他单词之间的相似程度。

  研究人员希望检验当我们在聆听语音时,大脑是否也会计算词语的相似性。这项研究第一次为精确了解大脑在这方面的能力提供了可能。莱勒教授和罗彻斯特大学的同行发现,当语音被受试者所理解时,就会出现特定的大脑信号;但是,如果受试者没有理解,或者没有注意在听,这种信号就会消失。

  “这项研究的潜在应用包括检测婴儿的语言能力发展,或者确定某些意识处于削弱状态的患者的大脑功能水平,”莱勒教授补充道,“这种信号的存在或消失或许还能用来判断一个从事要求高准确率和快速反应工作的人――比如空中交通控制员或士兵――是否理解了所收到的指令。”

  对于老年人,还可以利用该技术来判断他们能否跟上日常的对话,并以此为基础,判断是否有痴呆症的迹象。如果及早诊断并进行药物治疗,这种病症好转的概率可能会高得多。研究者认为,目前的新药之所以效果不明显,部分原因就是给药时疾病已经发展得太过严重。该研究的结果发表在近期的《当代生物学》(Current Biology)期刊上。(任天)


了解更多信息 欢迎关注科学探索微信公众号及微博

举报 使用道具

回复
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

9

关注

15

粉丝

42462

主题
精彩推荐
热门资讯
网友晒图
图文推荐

维权声明:本站有大量内容由网友产生,如果有内容涉及您的版权或隐私,请点击右下角举报,我们会立即回应和处理。
版权声明:本站也有大量原创,本站欢迎转发原创,但转发前请与本站取得书面合作协议。

Powered by Discuz! X3.4 Copyright © 2003-2020, WinnipegChinese.COM
GMT-5, 2024-9-24 08:21 , Processed in 0.019849 second(s), 31 queries .