論文の概要: Same Object, Different Grasps: Data and Semantic Knowledge for
Task-Oriented Grasping
- arxiv url: http://arxiv.org/abs/2011.06431v2
- Date: Fri, 13 Nov 2020 15:28:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 07:34:32.417014
- Title: Same Object, Different Grasps: Data and Semantic Knowledge for
Task-Oriented Grasping
- Title(参考訳): 同じ対象、異なる把握:タスク指向把握のためのデータと意味的知識
- Authors: Adithyavairavan Murali, Weiyu Liu, Kenneth Marino, Sonia Chernova,
Abhinav Gupta
- Abstract要約: TaskGraspデータセットは、オブジェクトとタスクの両方で、以前のデータセットよりも桁違いに大きい。
本稿では、知識グラフにエンコードされたオブジェクトやタスクのセマンティック知識を利用して、新しいオブジェクトインスタンスやクラス、さらには新しいタスクに一般化するGCNGraspフレームワークを提案する。
我々は、未知の物体上で実際のロボットに対してタスク指向の把握を実行することで、我々のデータセットとモデルが現実世界に適用可能であることを実証する。
- 参考スコア(独自算出の注目度): 40.95315009714416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the enormous progress and generalization in robotic grasping in
recent years, existing methods have yet to scale and generalize task-oriented
grasping to the same extent. This is largely due to the scale of the datasets
both in terms of the number of objects and tasks studied. We address these
concerns with the TaskGrasp dataset which is more diverse both in terms of
objects and tasks, and an order of magnitude larger than previous datasets. The
dataset contains 250K task-oriented grasps for 56 tasks and 191 objects along
with their RGB-D information. We take advantage of this new breadth and
diversity in the data and present the GCNGrasp framework which uses the
semantic knowledge of objects and tasks encoded in a knowledge graph to
generalize to new object instances, classes and even new tasks. Our framework
shows a significant improvement of around 12% on held-out settings compared to
baseline methods which do not use semantics. We demonstrate that our dataset
and model are applicable for the real world by executing task-oriented grasps
on a real robot on unknown objects. Code, data and supplementary video could be
found at https://sites.google.com/view/taskgrasp
- Abstract(参考訳): 近年のロボット把持の進歩と一般化にもかかわらず、既存の手法はタスク指向把持を同じ程度まで拡張し一般化していない。
これは主に、調査対象の数とタスクの両方の観点から、データセットの規模によるものだ。
これらの懸念には、オブジェクトとタスクの両方においてより多様なTaskGraspデータセットと、以前のデータセットよりも桁違いに大きく対処する。
データセットには、56のタスクと191のオブジェクトに対する250Kのタスク指向の把握と、RGB-D情報が含まれている。
我々は、この新たな広さと多様性を利用し、知識グラフにエンコードされたオブジェクトとタスクの意味的知識を使用して、新しいオブジェクトインスタンス、クラス、さらには新しいタスクに一般化するgcngraspフレームワークを提供する。
本フレームワークでは,セマンティクスを使用しないベースライン手法と比較して,ホールドアウト設定において約12%の大幅な改善が見られた。
本研究では,実ロボットのタスク指向把握を未知物体上で実行することにより,実世界に適用可能なデータセットとモデルを示す。
コード、データ、補足ビデオはhttps://sites.google.com/view/taskgraspで見ることができる。
関連論文リスト
- Leverage Task Context for Object Affordance Ranking [57.59106517732223]
25の共通タスク、50k以上の画像、661k以上のオブジェクトからなる、最初の大規模タスク指向のアベイランスランキングデータセットを構築しました。
その結果,タスクコンテキストに基づくアベイランス学習のパラダイムの実現可能性と,サリエンシランキングやマルチモーダルオブジェクト検出の分野における最先端モデルよりも,我々のモデルの方が優れていることが示された。
論文 参考訳(メタデータ) (2024-11-25T04:22:33Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Few-Shot In-Context Imitation Learning via Implicit Graph Alignment [15.215659641228655]
オブジェクトのグラフ表現間の条件付きアライメント問題として模倣学習を定式化する。
この条件付けにより、ロボットがデモ直後に新しいオブジェクトのセット上でタスクを実行できる、コンテキスト内学習が可能となることを示す。
論文 参考訳(メタデータ) (2023-10-18T18:26:01Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Instance-Level Task Parameters: A Robust Multi-task Weighting Framework [17.639472693362926]
最近の研究によると、ディープニューラルネットワークは、複数の関連するタスク間で共有表現を学習することで、マルチタスク学習の恩恵を受けている。
トレーニングプロセスは、データセットの各インスタンスに対するタスクの最適な重み付けを規定します。
我々は,SURREALとCityScapesのデータセットを用いて,人間の形状とポーズ推定,深さ推定,セマンティックセグメンテーションタスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-06-11T02:35:42Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - The IKEA ASM Dataset: Understanding People Assembling Furniture through
Actions, Objects and Pose [108.21037046507483]
IKEA ASMは300万フレーム、マルチビュー、家具組み立てビデオデータセットで、深さ、原子活動、オブジェクトセグメンテーション、人間のポーズを含む。
我々は,この課題のあるデータセット上で,映像行動認識,オブジェクトセグメンテーション,人間のポーズ推定タスクの顕著な手法をベンチマークする。
このデータセットは、マルチモーダルデータとマルチビューデータを統合してこれらのタスクをよりよく実行する、全体論的手法の開発を可能にする。
論文 参考訳(メタデータ) (2020-07-01T11:34:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。