SAP智能制造,为企业带来的无限机遇
339
2024-01-13
随着人工智能技术的不断进步,移动机器人正朝着自动化和智能化的方向发展为了更好地理解当今工业场景复杂、高动态的环境,移动机器人需要更强的感知能力因此,工业级传感器选型显得尤为重要工业机器人可搭载的传感器包括:激光雷达、红外传感器、光电传感器、超声波传感器、磁传感器、视觉传感器等。
在移动机器人发展的早期阶段,由于感知能力有限,一般被称为AGV(自动牵引车),还无法被称为机器人它们主要依靠磁传感器或红外传感器,只能沿着固定的导轨或路线行进,智能化自然无从谈起随着激光雷达和3D视觉相机技术的进步,移动机器人更适合应用于复杂、柔性的工业制造和服务领域。
这些机器人具备灵活的移动性、自主规划路径的能力,并支持多机在同一场景下运行,同时具有更强的环境感知和安全防护能力环境感知能力是衡量移动机器人(AMR)智能化程度的重要指标自主移动机器人的智能化体现在如下几个方面:安全性、稳定性、高效性和柔性。
无法达到上述几点,将难以满足工业场景对产线的需求,无法称之为智能机器人安全性机器人可自主移动,载重由数百公斤到数吨,如何确保其运行安全?
3D视觉相机可作为确保机器人运行安全的避障单元基于TOF(飞行时间)原理的3D相机,通过发射特定波段的电磁信号,获取前方物体的点云数据,能够有效识别机器人前方的悬空障碍物和低矮障碍物,甚至是凹坑,避免移动机器人倾覆的情况出现。
为此,需要研发适用于工业场景的避障相机和配套避障算法其典型应用场景包括:识别生产线上伸出的电子屏幕、定位地面可能存在的小纸盒和凹坑、智能识别行走的人员,特别适合于人机共用同一通道的工业场景随着数据的积累,避障算法亦逐步升级,愈发灵活。
稳定性对于自主移动机器人而言,其定位、导航模块为自主移动的基础,也是从AGV到AMR过渡的重要标志目前业界主流的导航方式是2D激光SLAM导航然而,经过市场的验证,此种导航方式仍被证明有其局限性例如,在空旷、易变和反光的场景中,2D定位信息容易丢失。
基于3D视觉的定位导航模块通过相机获取环境中丰富的三维环境图像信息和稠密的深度数据,结合自研视觉定位算法实现移动机器人的定位与2D激光雷达相比,3D视觉信息丰富,稳定可靠,并具有更强的环境适应性它更适用于复杂、多变和人机工厂的应用场景中,如地堆型仓库、大型空旷的车间、存在玻璃墙和玻璃门的车间等。
高效性3D视觉的应用不仅限于导航和避障功能,还赋予移动机器人(如自动叉车)托盘循迹对接的能力通过自研的3D视觉相机获取托盘的3D点云数据,并通过自研的托盘识别算法,智能识别出托盘的中心位置集成智能对接算法,使移动机器人能够自动调整位姿,准确对接目标。
通过长期的数据积累,迈尔微视自研的托盘对接算法可以自适应市面上主流的托盘类型,重复识别精度在±3mm左右,角度对接精度高达±0.2°
除了托盘识别对接,自研3D视觉相机结合定位算法,还能提供机器人自动纠偏功能,调整机器人的对接动作,完成多种对接需求,实现毫米级精度包括包装卷材自动上下料和锂电极卷自动上下料柔性柔性制造意指对各种不同形状加工对象实现程序化柔性制造。
单独的移动机器人无法体现柔性,但结合多轴机械臂和小型化的3D视觉传感器的移动复合机器人可以有效实现柔性搬运、上下料等需求搭载在机械臂末端的3D视觉传感器,可引导机器人完成移动抓取、上下料、加工转运等一系列操作,精度最高可达0.1mm。
同时,3D信息的使用,可以有效实现防呆、安全防护等功能。这在半导体、3C等安全要求较高的领域具有异常重要的意义。
迈尔微视MRDVS专为移动机器人研发的深度视觉系统,主要包括传感器、算法两部分传感器方面主要基于光飞行时间原理,通过测量主动光经目标反射后的时间差,根据光速计算目标的距离为避免高精度的时间测量,将主动光源经过振幅调制,测量目标反射后的接收光和发射光的相位变化来间接获得光的飞行时间。
基于TOF技术深度相机可以较高的帧率获取深度图像,具有很好的抗环境光干扰能力,在8米以上的距离保持较高的精度,且体积和功耗很小,非常适合用于移动平台的避障、导航定位等正如创始人高勇博士所期待的,“人类因为有眼睛这一重要传感器,感知环境、理解环境,并做出相应动作自然行云如水,但机器人没有‘眼睛’要做相同的动作就困难很多。
迈尔微视的初心和使命,就是要解决移动机器人‘眼睛’的问题,用3D视觉赋予机器人对环境的感知能力,进而为人类提供更多服务”迈尔微视将以传感器和算法为武器,让机器人“看懂”世界,更好的服务世界
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~