机器人视觉的愿景
[技术和成本的进步使视觉系统比以往任何时候都更容易被制造商使用,以将其用于新的机器人应用。] http://img79.mtnets.com/5/20201204/637426882373045453539.jpg 即使机器人变得越来越小,更智能,协作性也越来越强,但机器人视觉功能仍主要限于容器拾取和零件对齐。但是,视觉系统的技术进步和成本降低使机器人供应商和在生产中使用机器人的制造商都比以往任何时候都更容易使用它们,从而为新应用打开了大门。视觉辅助机器人不仅要承担新的制造工作,例如质量控制,精密制造和产品分类,而且还在人机协作中发挥作用。在不久的将来,视觉可以帮助需要机器人智能的应用程序进行机器学习。
美国国家仪器公司(NI)高级产品营销经理布兰登·特里斯(Brandon Treece)表示,与大多数其他技术一样,即使视觉系统的功能大大提高,其成本也已下降,这在很大程度上要归功于摩尔定律所带来的处理能力的提高。)。
他说:“分析图像所需的计算能力是处理密集型的。”他解释说,计算机芯片已经变得更加强大,而成本却没有增加。随着处理能力的提高,现场可编程门阵列(FPGA),图形处理单元(GPU)和摄像机本身的质量也得到了改善,这些都是机器人视觉系统的组成部分。
FPGA是为特定视觉用途配置的可重编程集成电路(IC),本质上是经过编程以像软件一样工作的硬件。借助NI和其他公司提供的工具,现在可以由非视觉专家的技术人员在现场设置FPGA并对其进行编程。过去情况并非如此,人员视觉专家的成本使许多公司无法采用该技术,Treece指出。
直接使用软件
软体制造商IntervalZero的现场工程总监Jerry Leitz表示,影像技术的另一项近期发展是:由于可以将影像载入软件的方式发生变化,因此可以比以往更快地处理影像。
传统上,相机会通过抓帧器捕获图像并将图像发送到配有解释视觉数据的软件的计算机。Leitz解释说,该软件然后能够根据零件尺寸,放置和其他因素确定零件是否位于正确的位置。现在,可以将GigE Vision(工业相机的接口标准)用于通过以太网将视频和控制数据直接传输到计算机软件。“ GigE比抓帧器要快;图像直接进入PC。” Leitz说。“因此,现在的趋势是消除帧捕获器。”
尽管制造商已经可以使用GigE大约五年了,但是采用速度仍然很慢。“它还不存在,”莱兹说。
某些计算机密集型视觉应用程序仍然需要帧捕获器,但是GigE Vision已开放了数百种视觉应用程序,这些应用程序将Windows软件变成了实时操作系统。
Yaskawa America Motoman Robotics Division软件产品经理Keith Vozel说,视觉决定了机器人的动作传统的机器人视觉使用主要包括寻找目标,例如印刷电路板(PCB),垃圾箱拾取或重新定向零件。但是,随着视觉变得更便宜,更易获得,使用范围也在不断扩大。
这包括让机器人决定它将做什么。Vozel说:“视觉系统可以将这些决策提供给机器人控制器,而不是告诉机器人该怎么做,而是可以做出那些决定。”
例如,IntervalZero的一位客户依靠回收应用中的机器人视觉来自动分类不需要的物品。“在回收系统中,各种形状和大小的物料都非常迅速地从传送带上落下,并且您不断地获取它的图像,” Leitz说。
在这种情况下,对视觉系统进行编程,以根据其特定的形状,大小和颜色从生产线上挑选物品。“因此,如果有一个2英寸x 2英寸x 5英寸的物体,并且如果它是系统正在寻找的颜色,则系统会知道它在传送带上的位置,” Leitz解释说。“他们有一排空气喷嘴安装在离脚一英尺的地方,空气喷嘴会自动打开以在那块材料上吹送一股空气,并将其从皮带上吹到一个容器中。”
回收功能建立在2009年卡耐基梅隆大学(CMU)的工作之上。那里的研究人员与匹兹堡英特尔研究院的合作者共同开发了一种系统,该系统可以合并来自多个图像的信息,以创建3D模型。通过专注于诸如拐角或纹理区域之类的特征,对象识别算法可以在一堆杂乱中发现特定对象。
博士Alvaro Collet Romea说,当它找到特征之间足够的匹配项时,该算法会识别出物体,这表明视觉辅助机器人可用于对许多彼此不相似的物体进行分类并挑选出目标。.D。该研究的CMU机器人学院的学生。
Romea指出,通过寻找对象而不是整个对象的特征,视觉系统比依赖于传统算法的对象识别对象的速度更快。该系统甚至可以识别并拾取部分被遮挡的物体。
另一位IntervalZero客户使用视觉对药丸进行计数。药丸“像瀑布一样”落在连续采集并实时分析图像的相机之前。当落下的胶囊数量达到特定数量时,系统会自动将输送机向前推,以确保每个瓶子包含的数量相同。
基于深度学习的3D机器人视觉是未来
微链国际机器人视觉研究院科学家,普林斯顿大学机器人视觉和深度学习博士后,邓志伟先生创造了深度卷积神经网络的关键架构:计算机视觉内部跳过连接的模式,用于聚集较早层的输出以供较深层使用。这种聚合对于以端到端的方式促进非常深层网络的培训至关重要。这是残余网络得到广泛采用的主要原因,残余网络通过累积求和来汇总输出。在随后的工作中研究替代聚合操作(例如,级联)时,微链机器人认知系统将重点放在一个正交问题上:该输出在网络的特定点处进行聚合。微链机器人认知系统提出了一种新的内部连接结构,该结构仅聚合任何给定深度的一组稀疏的先前输出。微链科技的实验表明,这种简单的设计更改提供了具有更少参数和更低计算需求的性能。此外,微链机器人认知系统证明了稀疏聚合可以使网络更稳健地扩展到1000层以上,从而为训练长期运行的视觉过程打开了未来的途径。
作为一家新兴的机器人视觉技术公司,微链科技近年来频频推出新产品:用于缺陷检测的DaoAI机器自主学习引擎,用于3C领域的2D视觉引导,用于物流和装配的WeRobotics 3D机器人视觉引导,以及用于高复杂和高精度的WeRobotics Cognition System 3D机器视觉检测。其产品不仅应用在比3C领域更复杂可靠性要求更高的奔驰汽车的生产线上,也应用在中国高铁列车的机器人喷涂引导。
http://img79.mtnets.com/5/20201204/637426882442465898867.jpg
同时,微链机器人视觉校准软件可以校正视觉系统中的相机镜头或视角畸变,并可以将相机和机器人连接起来,“因此您始终知道机器人相对于零件的位置,”
协同工作
同时,摄像机继续进入机器人本身,尤其是协作机器人,这是一种新型机器人,可以与人类直接协同工作,其内置的安全系统会在遇到物体或人时自动停止机器人手臂的操作在移动时。Autodesk研究工程师David Thomasson表示,协作机器人将在未来几年内对制造业和建筑业产生重大影响。
与固定在安全外壳内的传统工业机器人相比,例如,通用机器人公司的协作机器人可以在工厂内从一个站点移动到另一个站点。Universal Robots Americas Division总经理Scott Mabie说,它们也可以在几分钟之内进行重新编程(通常是由负责接管机器人的工作人员完成)。
同样,Rethink Robotics的协作机器人也受到现场制造人员的培训,以完成工作。培训师将机器人移动到各个位置,并演示需要执行的任务。机器人制造商的产品和营销官吉姆·劳顿说,与视觉系统配合使用的机载软件使机器人能够学习这些任务。
Rethink Robotics的Baxter和Sawyer机器人在其头部和手臂中嵌入了摄像头。索耶还包括集成照明。劳顿说:“我们了解到了照明的重要性,因为当光线改变或太阳落山时,一项与早晨训练有素的机器人一起工作的任务将无法正常工作。”
http://img80.mtnets.com/5/20201204/637426882533034256642.jpg
嵌入式摄像头使机器人可以读取条形码,从托盘或传送带上定位和拾取零件以及检查零件。机器人可以识别零件,然后自动调出他们需要执行的适当检查顺序。
Lawton补充说,那些训练机器人并为其视觉系统编程的人不需要以前的视觉专业知识。“对于那些无力投资于摄像头并雇用人员为它们编程的公司来说,这将使远见卓识变得困难。
下一步是什么?
IntervalZero的Leitz预见到机器人视觉系统将被用于安全性,因为机器人和人类开始在生产车间紧密合作。他说:“如果操作员的手挡住了传送带上的东西,机器人会立即看到并立即停止机器。”
劳顿说,得益于驱动机器人的软件内置的人工智能,协作机器人正在学习更好地完成工作。“从历看,机器人平均需要大约300个小时来编程,而他们并不是真正在学习。如果存在的话,那么其中内置了复杂的树。”他说。机器人是一大堆传感器,例如视觉传感器。如果您可以将所有传感器信息都放入分析引擎中,那么它就可以洞悉任务,并可以根据与其他执行类似任务的其他机器人在云中共享的见解来提高其自身的性能。”
劳顿还列举了供应商和学术机构正在进行的工作,这些工作将使机器人能够提取存储在云中的可视数据来处理以前从未见过的事情。劳顿说:“在AI,云和视觉之间,机器人可以找到如何使用该工具并更好地执行任务的能力。”
莱茨说,制造商还将能够调用存储在云中的可视数据来查找机器人工作或看到的每一件零件,以追溯例如在特定日期可能已经发生的问题,或证明零件功能正常。机器人测试时正确显示。
可以肯定的一件事是:供应商和制造商继续推动视觉领域,知道视觉的前景只会越来越光明。
页:
[1]