张学勇移民公司
微信扫一扫 分享朋友圈

已有 104 人浏览分享

开启左侧

Abderrahmane Kheddar:脑机接口的研究现状是什么?

[复制链接]
104 0

  新浪科技讯 8月20日消息,2018世界机器人大会拟于8月15日至19日在北京亦创国际会展中心举行。大会以“共创智慧新动能 共享开放新时代”为主题,由“论坛”、“博览会”、“大赛”、“地面无人系统展示活动”四大版块构成。 本届大赛汇聚了来自美国、俄罗斯、德国、日本、以色列等全球近20个国家和地区的1万余支赛队和数百名顶尖专家,共计超过5万多名参赛选手同台竞技。

  法国科学院院士、法国CNRS与日本AIST机器人联合实验室主任Abderrahmane Kheddar在论坛上发表了题为“脑机接口的研究现状及未来应用的展望”的演讲。

  机器人在某些领域需要完成特定的任务,但这些任务不是凭空出来的,而是我们必须要告诉它们必须要做什么,问题是我们如何告诉它们完成这些任务。这是扫地机器人,里面有软件和传感技术,用户按下一个键就可以了。扫地以后反馈就是要看家里到底是不是干净了,也可以对机器人进行再编程。再就是一些通用型的机器人,通常能够和人进行协作,也涉及到制造的问题。

  昨天有些人讲到机器人需要更多的指令才能完成准确的任务,这些机器人仍然需要界面或者控制面板进行控制,接受一些指令。当然,这可能比传统的制造业使用的自动机器人更加容易,可以通过遥感控制无人机,无人机就可以按照你的指令移动,但能否理解你的意图与情感,这是非常困难的事情。

  我们可以看到这个人多出了两只手臂,在做一些事情的时候可以让机器人辅助你,如果没有额外的手来做事情的话可以让机器人帮助你。有些时候需要对机器人进行再编程,要有一定的大脑功能。这种人机界面,或者机器和大脑之间的界面可能涉及到肌肉科学和脑科学,但从意图到行动之间还是有很大的差距。这里显示的就是能否通过意识控制机器人,这只是最终的目标,当我们想做这个项目的时候可能只有一些好莱坞的电影能够想到这些东西,我们当时想的是是否能够真正实现用大脑控制机器人的目标。

  当然,如果不能用你的肌肉或者手来控制,无论想让机器人做什么都必须通过大脑控制,也就是机器人要能够猜到你的意图从而行动,这就涉及到对大脑脑科学的研究,处理大脑的一些数据,最开始做的时候对这个想法是很兴奋的,到目前为止这个事情还是非常困难的,读取你的大脑信息是极其困难的事情,根据脑部的信息给出指令的话就更困难了。要想实现这个目标就需要几个步骤:获取脑部信息和意图,然后对信息意图进行传输,传输以后再来行动。

  要想做到这些,首先需要对大脑科学有更深刻的理解,再有一些脑科学的项目,在此基础上要设计一些脑机之间的互动界面,保证机器在做这些事情的时候需要得到你的认可,不能随意地做一些有害的事情。

  如何记录大脑的活动?有些可能需要用介入的方式,就是需要在大脑当中放入一些东西。这样做其实是非常困难的事情,也不合理。再就是非介入的方式,身体外部安装一些装置。当然,我们也觉得这样的做法并不是特别友好,最好的方式可能就是相对地用电磁的信号去了解和记录大脑的活动,这也是对用户来说最友好的一种方式,其它的方式我们也可以尝试,比如在大脑的各个点放入很多的装置记录大脑的活动,现在也有一些这样的设施。

  除了这些非介入的方式,还有一些信息只能通过介入的方式才能获得。这是记录大脑信息原理解释图,可以用EEG,也可以用EKG,甚至有些是需要用小的探针才能探究得到。这种图像成像的技术也有很多,比如IFRA,很多医院当中已经在使用了,要想控制机器人的话购买这样的东西,经济上不是很划算,除非这种东西能够变得非常小、非常便携才有使用价值,现在仍然非常昂贵。

  机器人当中应该如何来做机器人和大脑之间的界面?首先要将大脑的数据发送到界面,然后将控制信号发送到机器人系统再经过反馈和循环,大多数BCI-脑控技术都是基于大脑的电磁信号。然而,无论通过EEG还是其它方式监测大脑活动,甚至判断大脑正在想什么仍然是非常困难的事情。除了对大脑信号的观测还要观测很多其它信号才能确定大脑发出的意图,这种多策略的方式能够唤醒大脑的潜力。大脑科学的研究人员会根据大脑活跃的程度将大脑的状态分成几个类别,其实这是人类经常存在的几个状态,也起了不同的名字,比如Alpha和Beta,我们对中间的三类状态是比较感兴趣的,监测的是脑波频率,某些情况发生的时候我们会观测脑波有什么变化,会否刺激和唤醒某些东西。

  这是Alpha活跃度的变化,我们监测这些信号的时候使用的是EEG,眼睛打开的时候看起来是这种状态,眼睛闭上的时候信号发生了显著的变化,涉及到放松训练甚至生物应激反应等等,这些都是通过EEG监测出来的。现在我们想观测这些信号之间的关系,看一看和某些事件之间是否有同步的效应,比如这些动作在发生的时候和信号之间的反应相关性,要想猜人们的意图就必须要知道这些信号都代表着什么,并且是被什么触发的。无论是用EEG还是其它的FMR方式,监测大脑的某个控制动作的区域,可以发现这两个动作上大脑信号频率是不一样的,可以看这些信号和得到的结论是否是一一对应有相关性的,某些事情发生的时候可能是有某些信号。

  我们来看唤醒的潜力,它的原则其实是相对比较简单的,如果在给一个人展示某一个事情,这个事情是预期的话可能就会达到相对的峰值,称为P3或者P300,这个时间发生以后300微秒内会有这样的反应,如果门没有开的话会有另外一个反应,但只要门打开这个值就会达到相对的峰值,大多数事件都有这样的对应关系。无论是什么事件,预期的事件发生的时候就会有这样的反应。

  通过意识来写一些东西的话,这是英文当中写的所有东西,W没有出现的时候大脑不会有反应,一旦W出现大脑可能就会有反应。通过机器人带着你到不同的地方移动,可以根据某些刺激点帮助你实现一些功能,用户不断地给这个机器人展示想要的刺激点,根据这个刺激点来反应。这个视频是轮椅用脑电波控制,只是去看这个屏幕的东西,然后看有没有刺激物的出现,可能会有一定的延迟,通常来说它的信号是没有问题的,微秒级别就能够产生反应,需要一点时间处理数据。

  我们可以利用BCI-脑控机器人来做其它事情,这也是非常容易理解的,实际上这种刺激是到达你的眼睛,你要看一个图片,如果试图产生特定的频率就会看到这样一个信号,比如看到它的频率线,发现这个频率其实是被你的大脑复制,两个频率的话可以通过EEG功率光谱确认,这里有ABCDEF这些字母,如果你关注的是C,大脑便会有反应知道你是在看C,机器人是有摄像头的视觉系统,可以通过这种视觉的方式进行控制,所以机器人看到的也可以由我们的使用者看到。

  这里可以看到,一个东西开始闪烁的时候,你的关注点如果是在某个特定的物体上面,机器人会意识到这是你想抓住的东西,然后会去抓这个东西。我们利用AI技术可以实现在不同频率的识别,它的识别可以被自动化。

  现在讲一讲大家比较了解的神经系统反馈,这也是很多人正在研究的问题,训练你的大脑实现神经的反馈,也就是说你有一个任务,训练这个系统,使得它能够完成这样一个任务,比如想把鼠标往左,要让这个人去想鼠标往左或者往右,然后就他就开始想,你就可以获得数据,训练他所产生的信号,这就被称为神经反馈,你对他大脑发出的信号进行处理,然后进行校准分类等等,最后再对机器进行生物反馈的训练。

  这些研究的结果其实已经在《Nature》杂志上面发表了,这也是经过了几个月的训练之后大脑就能够产生其所需要的活动,可以看到妇女通过她的思想控制机械臂送来饮料,这个活动还是比较顺畅的,训练的过程是说这个人会产生一些特定的信号模式,所以机器人就可以理解。同样的,这是匹兹堡大学所做的,机器人可以用脑控,所以我们需要考虑的是怎样让机器人学会运动控制。如果我们想抓住一个饮料罐的话,大脑肯定会产生这样一个指令,就是要做这件事情。如果你知道这个人在想什么,那就比较容易给机器人编程了。这位妇女如果每一步都要停下来产生大脑信号并让机器人理解的话,那将是非常让人筋疲力尽的过程,能够提前预知使用者的意图效果就会好很多。

  这是在日本札幌一家医院所做的研究,了解了日本的汉字对大脑刺激的固定模式,可以意识到使用者想要做的事情,另外还有一个额外的手臂可以用脑控,如果两只手都在做事情的话可以有第三只手来做别的事情。这是在京都的一个例子,这个人控制第三只手来做多任务,也可以控制第三只手的活动,因为两只手都在做同一件事情。大脑不仅在控制两只手,而且在控制第三只手,这对它来说也是一个比较大的多任务处理的认知任务。

  BCI的机器系统未来会怎么样呢?我们不要用BCI产生一些低级别的命令或者轨迹,而是使用BCI猜测和预知人类的意图,而且使用机器人进行任务空间的计划和控制。目前看起来在大脑策略方面有些停滞,所以我们需要在大脑监测方面实现突破,这里的关键就是真的能够猜测和预知人的意图。伯克利大学的教授也在做这方面的研究,但现在我们还没有办法预知我们所关注的物体,如果这个问题被解决了,猜测大脑的意图的话,还有两个重要的问题需要思考:怎样有效地去实现闭环,然后就是怎样去体现。

  这是来自《黑客帝国》的图片,尼奥坐在椅子上,大脑插入的系统把他迁移到了另外一个虚拟的世界当中,所以大脑必须得到训练从而变得更加强大。另外两部对我启发比较大的电影:《Gate of Sorrow》是关于复制你自己的电影,虽然躺在床上,但你可以在真实世界当中活动。当时有一位同事本来想做演讲,后来把电影当中很多东西吸取进去了,所以只是在未来我们需要具备什么样的能力。《Chappie》主要是关于意识的问题,我们是否能够做到永生。

  现在我们已经有很多人形机器人了,每年也都在发展,需要对幻灯片进行更新,因为会有一些新的机器人出现,现在有来自俄罗斯和中国的机器人,现在的机器人越来越像人,最后可能会克隆出人形。再就是通过HiFi的方式进行远程控制,比如用手势进行传递,但我们所谓的体现还不只是这种远程控制,现在的问题是远程控制这样的机器人,必须认为这是你身体的一部分而不是机器人,所以要打破机器人和人之间的界限,要让这个人相信这个机器人就是自己身体的一部分,它就是你自己,这是最有挑战性的部分。

  这是一个橡胶手,是用同样的方式进行刺激,一个人用叉子去叉假手,这个人非常害怕,把他的手拿回去了,有些时候人们会把这个手看作自己的手。我们可以发现形状并没有关系,问题不在于形状,现在可以有些复制的手段,如果有一个人提供了情境,在看控制的机器人的时候,问题在于是不是认为机器人就是他本人?我们希望能够复制这样一些场景,并且实现自我定位和自我认知,也有一个非常重要的工作,就是在没有这个触觉反馈的时候,只是手没有手指的话,碰到了一个窗帘,你问这个人是不是感觉到上面有什么东西,其实他的感觉并不是这个手指的感觉,而是整个手的感觉。

  这是我的结论,目前机器人行业对物理世界的体现还没有足够的理解,现在我们应该回到更加实用的问题,如果这个人不信任系统的话,系统就不会发挥作用,即便系统非常好,要让一个瘫痪的人去走路的话,如果自己不相信系统,这个系统就不会发挥作用,信任对系统的可用性是非常重要的,我们需要让传感器更好地探索人的行动。

举报 使用道具

回复
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

9

关注

15

粉丝

42462

主题
精彩推荐
热门资讯
网友晒图
图文推荐

维权声明:本站有大量内容由网友产生,如果有内容涉及您的版权或隐私,请点击右下角举报,我们会立即回应和处理。
版权声明:本站也有大量原创,本站欢迎转发原创,但转发前请与本站取得书面合作协议。

Powered by Discuz! X3.4 Copyright © 2003-2020, WinnipegChinese.COM
GMT-5, 2024-11-17 20:23 , Processed in 0.022786 second(s), 31 queries .