• <tr id='18613'><strong id='3852c'></strong><small id='9bc47'></small><button id='e965c'></button><li id='09882'><noscript id='1a856'><big id='2c9e9'></big><dt id='ad80d'></dt></noscript></li></tr><ol id='95656'><option id='58271'><table id='e3536'><blockquote id='38948'><tbody id='e045d'></tbody></blockquote></table></option></ol><u id='09e24'></u><kbd id='ad259'><kbd id='c3fb0'></kbd></kbd>

    <code id='4b98e'><strong id='0a1ea'></strong></code>

    <fieldset id='edf83'></fieldset>
          <span id='d6489'></span>

              <ins id='82d76'></ins>
              <acronym id='0a201'><em id='23457'></em><td id='a0bc5'><div id='20f03'></div></td></acronym><address id='9aeca'><big id='5d8ba'><big id='598c6'></big><legend id='7ac09'></legend></big></address>

              <i id='78eb1'><div id='31683'><ins id='411c3'></ins></div></i>
              <i id='7221e'></i>
            1. <dl id='cc8bd'></dl>
              1. <blockquote id='29a5b'><q id='432ca'><noscript id='f3020'></noscript><dt id='05dd6'></dt></q></blockquote><noframes id='3a55f'><i id='fd97c'></i>

              2. <tr id='18613'><strong id='3852c'></strong><small id='9bc47'></small><button id='e965c'></button><li id='09882'><noscript id='1a856'><big id='2c9e9'></big><dt id='ad80d'></dt></noscript></li></tr><ol id='95656'><option id='58271'><table id='e3536'><blockquote id='38948'><tbody id='e045d'></tbody></blockquote></table></option></ol><u id='09e24'></u><kbd id='ad259'><kbd id='c3fb0'></kbd></kbd>

                <code id='4b98e'><strong id='0a1ea'></strong></code>

                <fieldset id='edf83'></fieldset>
                      <span id='d6489'></span>

                          <ins id='82d76'></ins>
                          <acronym id='0a201'><em id='23457'></em><td id='a0bc5'><div id='20f03'></div></td></acronym><address id='9aeca'><big id='5d8ba'><big id='598c6'></big><legend id='7ac09'></legend></big></address>

                          <i id='78eb1'><div id='31683'><ins id='411c3'></ins></div></i>
                          <i id='7221e'></i>
                        1. <dl id='cc8bd'></dl>
                          1. <blockquote id='29a5b'><q id='432ca'><noscript id='f3020'></noscript><dt id='05dd6'></dt></q></blockquote><noframes id='3a55f'><i id='fd97c'></i>

                            解放人类的双手 机器人尝试自主学习抓取物体

                            时间:2018-08-07 15:52

                            98%的情况下机器人抓取都是成功的  训练机器人如何在不掉落的情况下抓住各种物体, 通常需要大量的练习 

                            不过, 加州大学伯克利分校和西门子的研究人员联合设计并在即将发表的论文中描述了一款新型的机器人, 它可以通过研究一个3D形状的数据库来学习如何抓牢新物体  该机器人连接了一个3D传感器和一个可以深度学习神经网络, 研究人员就是通过这两者来为其提供物体的图像信息  这些信息包括物体形状端屏概冉蜕戮、视觉外观以及如何抓住它们的物理知识 

                            因此, 当一个新物体放置在机器人面前时, 后者只需将物体与数据库中的一个类似对象做相应的匹配  在实际操作中, 当机器人有超过50%的自信能够抓住一个新物体时, 98%的情况下都会取得成功  不过要是机器人的自信不足50%, 它就会先试探性地抓取这个物体, 然后形成一个抓取策略  在这种情况下, 机器人有99%成功的机会  所以克服机器人缺乏自信的方法就是做一个快速的小检查 

                            这种训练方法可以减少大量机器学习的时间, 并且使机器人变得更加灵活  Jeff Mahler, 一位研究这个项目的博士后向麻省理工科技技术评论表示“我们可以在一天内为深度神经网络生成足够的训练数据, 从而免去了在一个真正的机器人上运行几个月物理实验的麻烦  ”目前在工厂中投入使用的机器人对已知物体的抓取已经非常精确, 但是其面对新物体时仍不能很好的适应  这种训练策略的效率和机器人握力的可靠性使该方法在未来的商业应用中能够很好地发挥作用