論文の概要: CaTGrasp: Learning Category-Level Task-Relevant Grasping in Clutter from
Simulation
- arxiv url: http://arxiv.org/abs/2109.09163v1
- Date: Sun, 19 Sep 2021 16:48:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 09:13:36.261861
- Title: CaTGrasp: Learning Category-Level Task-Relevant Grasping in Clutter from
Simulation
- Title(参考訳): CaTGrasp:シミュレーションによるクラッタのカテゴリーレベルタスク関連グラフ作成
- Authors: Bowen Wen and Wenzhao Lian and Kostas Bekris and Stefan Schaal
- Abstract要約: タスク関連グルーピングは、下流操作タスクが有効なグルーピングのセットを制限している産業組み立てにおいて重要である。
本研究では,実世界のデータ収集に時間を要することなく,産業オブジェクトのタスク関連把握を学習するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.469888862968116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Task-relevant grasping is critical for industrial assembly, where downstream
manipulation tasks constrain the set of valid grasps. Learning how to perform
this task, however, is challenging, since task-relevant grasp labels are hard
to define and annotate. There is also yet no consensus on proper
representations for modeling or off-the-shelf tools for performing
task-relevant grasps. This work proposes a framework to learn task-relevant
grasping for industrial objects without the need of time-consuming real-world
data collection or manual annotation. To achieve this, the entire framework is
trained solely in simulation, including supervised training with synthetic
label generation and self-supervised, hand-object interaction. In the context
of this framework, this paper proposes a novel, object-centric canonical
representation at the category level, which allows establishing dense
correspondence across object instances and transferring task-relevant grasps to
novel instances. Extensive experiments on task-relevant grasping of
densely-cluttered industrial objects are conducted in both simulation and
real-world setups, demonstrating the effectiveness of the proposed framework.
Code and data will be released upon acceptance at
https://sites.google.com/view/catgrasp.
- Abstract(参考訳): 下流操作タスクが有効な把握セットを制約する産業アセンブリでは,タスク関連把握が重要である。
しかし、タスク関係の把握ラベルの定義や注釈が難しいため、このタスクの実行方法を学ぶのは困難である。
モデリングのための適切な表現や、タスク関連の把握を行うためのオフ・ザ・棚のツールに関するコンセンサスもまだ存在しない。
本研究では,実世界のデータ収集や手動アノテーションを必要とせずに,産業オブジェクトのタスク関連把握を学習するフレームワークを提案する。
これを達成するために、フレームワーク全体は、合成ラベル生成による教師付きトレーニングや、自己教師付きハンドオブジェクトインタラクションを含む、シミュレーションのみでトレーニングされる。
本稿では,対象インスタンス間の密接な対応を確立し,タスク関係の把握を新たなインスタンスに伝達する,カテゴリレベルでのオブジェクト中心の標準表現を提案する。
密集した産業用物体のタスク関連把握に関する広範囲な実験をシミュレーションと実世界の双方で行い,提案手法の有効性を実証した。
コードとデータはhttps://sites.google.com/view/catgraspで公開される。
関連論文リスト
- Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Kinematic-aware Prompting for Generalizable Articulated Object
Manipulation with LLMs [53.66070434419739]
汎用的なオブジェクト操作は、ホームアシストロボットにとって不可欠である。
本稿では,物体のキネマティックな知識を持つ大規模言語モデルに対して,低レベル動作経路を生成するキネマティック・アウェア・プロンプト・フレームワークを提案する。
我々のフレームワークは8つのカテゴリで従来の手法よりも優れており、8つの未確認対象カテゴリに対して強力なゼロショット能力を示している。
論文 参考訳(メタデータ) (2023-11-06T03:26:41Z) - Tracking through Containers and Occluders in the Wild [32.86030395660071]
重い閉塞と封じ込めによる視覚追跡のための新しいベンチマークとモデルである$textbfTCOW$を紹介した。
我々は、教師付き学習とモデル性能の構造化評価の両方をサポートするために、合成データセットと注釈付き実データセットの混合を作成する。
最近の2つのトランスフォーマーベースビデオモデルを評価し,タスク変動の特定の設定下でターゲットを驚くほど追跡できるが,トラッキングモデルが真のオブジェクト永続性(permanence)の概念を獲得したと主張するまでには,かなりの性能差が残っていることを発見した。
論文 参考訳(メタデータ) (2023-05-04T17:59:58Z) - Unsupervised Task Graph Generation from Instructional Video Transcripts [53.54435048879365]
本研究では,実世界の活動を行う指導ビデオのテキスト書き起こしを提供する環境について考察する。
目標は、これらの重要なステップ間の依存関係関係と同様に、タスクに関連する重要なステップを特定することです。
本稿では,命令調整言語モデルの推論能力とクラスタリングとランキングコンポーネントを組み合わせたタスクグラフ生成手法を提案する。
論文 参考訳(メタデータ) (2023-02-17T22:50:08Z) - Structure-Guided Image Completion with Image-level and Object-level
Semantic Discriminators [118.6132221271663]
複雑な意味論やオブジェクトの生成を改善するために,セマンティック・ディミネータとオブジェクトレベル・ディミネータからなる学習パラダイムを提案する。
特に、セマンティック・ディミネーターは、事前学習された視覚的特徴を利用して、生成された視覚概念の現実性を改善する。
提案手法は, 生成品質を著しく向上させ, 各種タスクの最先端化を実現する。
論文 参考訳(メタデータ) (2022-12-13T01:36:56Z) - Learning Sensorimotor Primitives of Sequential Manipulation Tasks from
Visual Demonstrations [13.864448233719598]
本稿では,低レベルポリシーと高レベルポリシーを同時に学習するニューラルネットワークベースの新しいフレームワークについて述べる。
提案手法の重要な特徴は、これらのポリシーがタスクデモの生のビデオから直接学習されることである。
ロボットアームを用いた物体操作タスクの実証実験の結果,提案するネットワークは実際の視覚的な実演から効率よく学習し,タスクを実行することができることがわかった。
論文 参考訳(メタデータ) (2022-03-08T01:36:48Z) - You Only Demonstrate Once: Category-Level Manipulation from Single
Visual Demonstration [9.245605426105922]
この研究は、新しいカテゴリーレベルの操作フレームワークを提案する。
オブジェクト中心のカテゴリーレベルの表現とモデルなしの6 DoFモーショントラッキングを使用する。
実験は、高精度な組み立てにおける様々な産業課題において、その効果を実証している。
論文 参考訳(メタデータ) (2022-01-30T03:59:14Z) - Object Pursuit: Building a Space of Objects via Discriminative Weight
Generation [23.85039747700698]
視覚学習と理解のためのオブジェクト中心表現を継続的に学習するフレームワークを提案する。
我々は、オブジェクト中心の表現を学習しながら、オブジェクトとそれに対応するトレーニング信号の多様なバリエーションをサンプリングするために、インタラクションを活用する。
提案するフレームワークの重要な特徴について広範な研究を行い,学習した表現の特徴を分析した。
論文 参考訳(メタデータ) (2021-12-15T08:25:30Z) - Landmark Policy Optimization for Object Navigation Task [77.34726150561087]
本研究は,未確認環境において,与えられたセマンティックカテゴリに関連する最も近いオブジェクトにナビゲートするオブジェクトゴールナビゲーションタスクについて研究する。
最近の研究は、エンドツーエンドの強化学習アプローチとモジュールシステムの両方において大きな成果を上げていますが、堅牢で最適なものにするには大きな前進が必要です。
本稿では,これらのランドマークを抽出する手法として,標準的なタスクの定式化とランドマークとしての付加的な地域知識を取り入れた階層的手法を提案する。
論文 参考訳(メタデータ) (2021-09-17T12:28:46Z) - Conditional Meta-Learning of Linear Representations [57.90025697492041]
表現学習のための標準メタラーニングは、複数のタスク間で共有される共通の表現を見つけることを目的とする。
本研究では,タスクの側情報を手作業に適した表現にマッピングし,条件付け関数を推定することで,この問題を克服する。
この利点を実用的に活用できるメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-30T12:02:14Z) - Task-Adaptive Clustering for Semi-Supervised Few-Shot Classification [23.913195015484696]
未確認のタスクを、少量の新しいトレーニングデータだけで処理することを目的としている。
しかし、数ショットの学習者が準備(メタトレーニング)する際には、大量のラベル付きデータが必要である。
そこで本研究では,トレーニングデータの大部分がラベル付けされていない半教師付き環境下で動作可能な,数発の学習者を提案する。
論文 参考訳(メタデータ) (2020-03-18T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。