論文の概要: Teaching Robots Novel Objects by Pointing at Them
- arxiv url: http://arxiv.org/abs/2012.13620v1
- Date: Fri, 25 Dec 2020 20:01:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-04-25 04:35:02.724928
- Title: Teaching Robots Novel Objects by Pointing at Them
- Title(参考訳): ロボットに新しい物体を指差して教える
- Authors: Sagar Gubbi Venkatesh and Raviteja Upadrashta and Shishir Kolathaya
and Bharadwaj Amrutur
- Abstract要約: 本研究は,ロボットがこれまで遭遇したことのない新しい物体を,新たな興味の対象に指差して教えることを提案する。
終端ニューラルネットワークは、ポインティングハンドによって示される新しい関心のあるオブジェクトに出席し、その後、新しいシーンでオブジェクトをローカライズするために使用されます。
ロボットアームは、手を指して強調表示された新しいオブジェクトを操作できることを示します。
- 参考スコア(独自算出の注目度): 1.1797787239802762
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Robots that must operate in novel environments and collaborate with humans
must be capable of acquiring new knowledge from human experts during operation.
We propose teaching a robot novel objects it has not encountered before by
pointing a hand at the new object of interest. An end-to-end neural network is
used to attend to the novel object of interest indicated by the pointing hand
and then to localize the object in new scenes. In order to attend to the novel
object indicated by the pointing hand, we propose a spatial attention
modulation mechanism that learns to focus on the highlighted object while
ignoring the other objects in the scene. We show that a robot arm can
manipulate novel objects that are highlighted by pointing a hand at them. We
also evaluate the performance of the proposed architecture on a synthetic
dataset constructed using emojis and on a real-world dataset of common objects.
- Abstract(参考訳): 新たな環境で動作し、人間と協力する必要があるロボットは、操作中に人間の専門家から新しい知識を得ることができる必要がある。
本研究は,ロボットがこれまで遭遇したことのない新しい物体を,新たな興味の対象に指差して教えることを提案する。
エンド・ツー・エンドのニューラルネットワークは、ポインティング・ハンドが示す新しい興味のあるオブジェクトに出席し、新しいシーンでオブジェクトをローカライズするために使用される。
ポインティング・ハンドが示す新しいオブジェクトに出席するために,シーン内の他のオブジェクトを無視しながら強調されたオブジェクトに焦点を合わせることを学ぶ空間的注意変調機構を提案する。
ロボットアームは手を指して強調される新しい物体を操作可能であることを示す。
また,絵文字を用いた合成データセットと実世界の共通オブジェクトのデータセットを用いて提案手法の性能を評価する。
関連論文リスト
- FOCUS: Object-Centric World Models for Robotics Manipulation [4.6956495676681484]
FOCUSは、オブジェクト中心の世界モデルを学ぶモデルベースのエージェントである。
オブジェクト中心の世界モデルにより、エージェントがより効率的にタスクを解くことができることを示す。
また、FOCUSが現実世界の環境でどのように採用されるかを示す。
論文 参考訳(メタデータ) (2023-07-05T16:49:06Z) - Compositional 3D Human-Object Neural Animation [93.38239238988719]
人間と物体の相互作用(HOI)は、人間中心の視覚生成、AR/VR、ロボット工学などの人間中心のシーン理解アプリケーションに不可欠である。
本稿では,HoIアニメーションにおけるこの課題について,作曲の観点から考察する。
我々は、暗黙のニューラル表現に基づいてHOIダイナミクスをモデル化し、レンダリングするために、ニューラル・ヒューマン・オブジェクトの変形を採用する。
論文 参考訳(メタデータ) (2023-04-27T10:04:56Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Bi-directional Object-context Prioritization Learning for Saliency
Ranking [60.62461793691836]
既存のアプローチは、オブジェクトオブジェクトかオブジェクトシーンの関係を学ぶことに集中しています。
我々は,人間の視覚認識システムにおいて,空間的注意と物体に基づく注意が同時に機能することが観察された。
本稿では,空間的注意を統一する新たな双方向手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:03Z) - DemoGrasp: Few-Shot Learning for Robotic Grasping with Human
Demonstration [42.19014385637538]
本稿では,ロボットに対して,単純で短い人間の実演で物体をつかむ方法を教えることを提案する。
まず、人間と物体の相互作用を示すRGB-D画像の小さなシーケンスを提示する。
このシーケンスを使用して、インタラクションを表す手とオブジェクトメッシュを構築する。
論文 参考訳(メタデータ) (2021-12-06T08:17:12Z) - INVIGORATE: Interactive Visual Grounding and Grasping in Clutter [56.00554240240515]
INVIGORATEは、自然言語で人間と対話し、特定の物体をクラッタで把握するロボットシステムである。
我々は、物体検出、視覚的接地、質問生成、OBR検出と把握のために、別々のニューラルネットワークを訓練する。
我々は、学習したニューラルネットワークモジュールを統合する、部分的に観測可能なマルコフ決定プロセス(POMDP)を構築します。
論文 参考訳(メタデータ) (2021-08-25T07:35:21Z) - Property-Aware Robot Object Manipulation: a Generative Approach [57.70237375696411]
本研究では,操作対象の隠れた特性に適応したロボットの動きを生成する方法に焦点を当てた。
本稿では,ジェネレーティブ・アドバイサル・ネットワークを利用して,オブジェクトの特性に忠実な新しいアクションを合成する可能性について検討する。
以上の結果から,ジェネレーティブ・アドバイサル・ネットは,新規かつ有意義な輸送行動を生み出すための強力なツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-08T14:15:36Z) - Simultaneous Multi-View Object Recognition and Grasping in Open-Ended
Domains [0.0]
オープンなオブジェクト認識と把握を同時に行うために,メモリ容量を増強したディープラーニングアーキテクチャを提案する。
シミュレーションと実世界設定の両方において,本手法が未確認のオブジェクトを把握し,現場でのごくわずかな例を用いて,新たなオブジェクトカテゴリを迅速に学習できることを実証する。
論文 参考訳(メタデータ) (2021-06-03T14:12:11Z) - Affordance Transfer Learning for Human-Object Interaction Detection [106.37536031160282]
新規なオブジェクトとHOIを共同検出し、アワアンスを認識するアワアンス転送学習手法を紹介します。
具体的には、HOI表現はアペアランスとオブジェクト表現の組み合わせに分離することができる。
提案された代価移動学習により、モデルは既知の代価表現から新規な対象の代価を推測することができる。
論文 参考訳(メタデータ) (2021-04-07T02:37:04Z) - Object Detection and Pose Estimation from RGB and Depth Data for
Real-time, Adaptive Robotic Grasping [0.0]
動的ロボットの把握を目的として,リアルタイム物体検出とポーズ推定を行うシステムを提案する。
提案されたアプローチは、ロボットが物体のアイデンティティとその実際のポーズを検出し、新しいポーズで使用するために正準の把握を適応させることを可能にする。
訓練のためのシステムは、ロボットの手首に取り付けられたグリッパーに対する対象の相対的な姿勢を捉えることで、標準的な把握を定義する。
テスト中、新しいポーズが検出されると、物体の正準的な把握が識別され、ロボットアームの関節角度を調整して動的に適応されます。
論文 参考訳(メタデータ) (2021-01-18T22:22:47Z) - One-Shot Object Localization Using Learnt Visual Cues via Siamese
Networks [0.7832189413179361]
本研究では,新しい環境にローカライズされなければならない新規な関心対象を特定するために視覚的な手がかりを用いる。
Siameseネットワークを備えたエンドツーエンドのニューラルネットワークを使用して、キューを学び、関心のあるオブジェクトを推論し、新しい環境でローカライズします。
論文 参考訳(メタデータ) (2020-12-26T07:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。