机器人精细操作是完成高精度任务的必要条件,作为主要反馈源的显微视觉具有窄视野、小景深、平面成像等特点,导致小空间内的观测状态不能直接反映操作空间位姿,这种“所见非所得”给复杂场景下的机器人精细操控提出了挑战。近日,来自中国科学院自动化研究所研究团队在《IEEE Transactions on Neural Networks and Learning Systems》类脑控制专刊上发表研究成果,提出了一种多脑区协同类脑控制框架,较好地解决了小空间、器件遮挡等复杂环境下的精细操控难题。
研究人员借鉴对应感知、规划和控制的不同脑区,分别提出模仿视觉皮层的感知模块、模仿小脑皮层的控制模块、模仿前额叶皮层的规划和预测模块等,并按照相应信息流传递将这些脑区模仿模块进行连接。模仿对应脑区特性,初级视觉利用卷积操作识别图像状态,高级视觉以全连接形式实现从(二维)图像空间到(三维)操作空间的位姿映射;小脑模块借鉴小脑皮层的独特结构实现稳定无超调的运动控制;前额叶模块以循环加前向的混合模式预测运动轨迹,以分块式兴奋-抑制的连接模式规划不同表征空间的运动。
研究表明,该方法能有效实现多种复杂小空间内的自主规划与控制,通过高精度的轨迹预测与快速的动作响应,能克服常规方法无法解决的器件遮挡时运动规划问题,从而拓宽了机器人精细操控的可控边界;这种类脑控制架构还具有较强的可解释性和灵活性,每个模块均可高精度地模拟对应脑区,将这些模块进行组合即可适应多种异构精细操控任务。
论文链接:
https://ieeexplore.ieee.org/document/9537647
注:此研究成果摘自《IEEE Transactions on Neural Networks and Learning Systems》杂志,文章内容不代表本网站观点和立场,仅供参考。
免责声明:本网转载自其它媒体的文章,目的在于弘扬科技创新精神,传递更多科技创新信息,并不代表本网赞同其观点和对其真实性负责,在此我们谨向原作者和原媒体致以敬意。如果您认为本站文章侵犯了您的版权,请与我们联系,我们将第一时间删除。