論文の概要: Task-Oriented 6-DoF Grasp Pose Detection in Clutters
- arxiv url: http://arxiv.org/abs/2502.16976v1
- Date: Mon, 24 Feb 2025 09:05:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:52:36.194231
- Title: Task-Oriented 6-DoF Grasp Pose Detection in Clutters
- Title(参考訳): クラッタにおけるタスク指向6-DoFグラフポス検出
- Authors: An-Lan Wang, Nuo Chen, Kun-Yu Lin, Li Yuan-Ming, Wei-Shi Zheng,
- Abstract要約: 大規模6-DoFタスク指向把握データセットである6-DoFタスクグラフ(6DTG)を構築した。
各グリップには6つのタスクと198のオブジェクトを含む特定のタスクがアノテートされる。
我々のOne-Stage TaskGrasp(OSTG)は、タスク指向のポイント選択戦略を採用し、タスク指向のグリップ生成モジュールを用いて特定のタスクの把握方法を決定する。
- 参考スコア(独自算出の注目度): 42.58168734905056
- License:
- Abstract: In general, humans would grasp an object differently for different tasks, e.g., "grasping the handle of a knife to cut" vs. "grasping the blade to hand over". In the field of robotic grasp pose detection research, some existing works consider this task-oriented grasping and made some progress, but they are generally constrained by low-DoF gripper type or non-cluttered setting, which is not applicable for human assistance in real life. With an aim to get more general and practical grasp models, in this paper, we investigate the problem named Task-Oriented 6-DoF Grasp Pose Detection in Clutters (TO6DGC), which extends the task-oriented problem to a more general 6-DOF Grasp Pose Detection in Cluttered (multi-object) scenario. To this end, we construct a large-scale 6-DoF task-oriented grasping dataset, 6-DoF Task Grasp (6DTG), which features 4391 cluttered scenes with over 2 million 6-DoF grasp poses. Each grasp is annotated with a specific task, involving 6 tasks and 198 objects in total. Moreover, we propose One-Stage TaskGrasp (OSTG), a strong baseline to address the TO6DGC problem. Our OSTG adopts a task-oriented point selection strategy to detect where to grasp, and a task-oriented grasp generation module to decide how to grasp given a specific task. To evaluate the effectiveness of OSTG, extensive experiments are conducted on 6DTG. The results show that our method outperforms various baselines on multiple metrics. Real robot experiments also verify that our OSTG has a better perception of the task-oriented grasp points and 6-DoF grasp poses.
- Abstract(参考訳): 一般に、人間は、異なるタスクのために異なる物体をつかむ。例えば、「ナイフのハンドルを切るために彫る」とか「ブレードを渡すように彫る」とか。
ロボットグリップポーズ検出研究の分野では、このタスク指向の把握を考慮し、ある程度進歩させた研究もあるが、それらは一般に、実際の生活における人間の支援には適用できない低DoFグリップパータイプや非散布セッティングによって制約されている。
本稿では,タスク指向型6-DOFグラフポース検出(TO6DGC)という課題を,より汎用的な6-DOFグラフポース検出(Cluttered (multi-object))シナリオに拡張した。
この目的のために,大規模な6-DoFタスク指向把握データセットである6-DoFタスクグラフ (6DTG) を構築した。
各グリップには6つのタスクと198のオブジェクトを含む特定のタスクがアノテートされる。
さらに,TO6DGC問題に対処する強力なベースラインであるOne-Stage TaskGrasp (OSTG)を提案する。
我々のOSTGはタスク指向のポイント選択戦略を採用し、どこで把握するかを検知し、タスク指向のグリップ生成モジュールを用いて特定のタスクの把握方法を決定する。
OSTGの有効性を評価するため,6DTGで広範囲な実験を行った。
その結果,本手法は複数の指標において,様々なベースラインよりも優れていた。
また、実際のロボット実験により、OSTGはタスク指向のグリップポイントと6-DoFグリップポーズをよりよく認識できることがわかった。
関連論文リスト
- Seamless Detection: Unifying Salient Object Detection and Camouflaged Object Detection [73.85890512959861]
本稿では,SOD(Salient Object Detection)とCOD(Camouflaged Object Detection)を統合化するためのタスク非依存フレームワークを提案する。
我々は、間隔層と大域的コンテキストを含む単純で効果的なコンテキストデコーダを設計し、67fpsの推論速度を実現する。
公開SODデータセットとCODデータセットの実験は、教師なし設定と教師なし設定の両方において、提案したフレームワークの優位性を実証している。
論文 参考訳(メタデータ) (2024-12-22T03:25:43Z) - Target-Oriented Object Grasping via Multimodal Human Guidance [6.031799490542892]
従来の把握検出手法は、シーン全体を解析して把握を予測し、冗長性と非効率性をもたらす。
本研究では,目標参照視点から6-DoFのグリップ検出を再検討し,TOGNet(Target-Oriented Grasp Network)を提案する。
TOGNetは特に、より効率的に把握を予測するために、ローカルでオブジェクトに依存しない領域パッチをターゲットにしている。
論文 参考訳(メタデータ) (2024-08-20T18:42:56Z) - DeTra: A Unified Model for Object Detection and Trajectory Forecasting [68.85128937305697]
提案手法は,2つのタスクの結合を軌道修正問題として定式化する。
この統合タスクに対処するために、オブジェクトの存在, ポーズ, マルチモーダルな将来の振る舞いを推測する精細化変換器を設計する。
実験では、我々のモデルはArgoverse 2 Sensor and Openデータセットの最先端性よりも優れています。
論文 参考訳(メタデータ) (2024-06-06T18:12:04Z) - Localizing Task Information for Improved Model Merging and Compression [61.16012721460561]
我々は,各タスクの重み付けが重なり合わないことが多いため,各タスクがマージされた後も,各タスクの解決に必要な情報が保存されていることを示す。
本稿では,そのような重みを排除し,既存のモデルマージ手法の一般的な性能を改善するアルゴリズムであるConsensus Mergingを提案する。
論文 参考訳(メタデータ) (2024-05-13T14:54:37Z) - Task-Driven Exploration: Decoupling and Inter-Task Feedback for Joint Moment Retrieval and Highlight Detection [7.864892339833315]
本稿では,共同モーメント検索とハイライト検出のためのタスク駆動型トップダウンフレームワークを提案する。
このフレームワークはタスク固有の共通表現をキャプチャするタスク分離ユニットを導入している。
QVHighlights、TVSum、Charades-STAデータセットに関する総合的な実験と詳細なアブレーション研究は、提案フレームワークの有効性と柔軟性を裏付けるものである。
論文 参考訳(メタデータ) (2024-04-14T14:06:42Z) - ManiPose: A Comprehensive Benchmark for Pose-aware Object Manipulation in Robotics [55.85916671269219]
本稿では,ポーズ変動操作タスクの研究を進めるための先駆的ベンチマークであるManiPoseを紹介する。
包括的データセットは、2936の現実世界のスキャンされた剛体オブジェクトと100の明瞭なオブジェクトに対して、幾何学的に一貫性があり、操作指向の6Dポーズラベルを備えている。
本ベンチマークは,ポーズ推定,ポーズ認識操作,実ロボットのスキル伝達における顕著な進歩を示す。
論文 参考訳(メタデータ) (2024-03-20T07:48:32Z) - On Steering Multi-Annotations per Sample for Multi-Task Learning [79.98259057711044]
マルチタスク学習の研究はコミュニティから大きな注目を集めている。
目覚ましい進歩にもかかわらず、異なるタスクを同時に学習するという課題はまだ検討されていない。
従来の研究は、異なるタスクから勾配を修正しようとするが、これらの手法はタスク間の関係の主観的な仮定を与え、修正された勾配はより正確でないかもしれない。
本稿では,タスク割り当てアプローチによってこの問題に対処する機構であるタスク割当(STA)を紹介し,各サンプルをランダムにタスクのサブセットに割り当てる。
さらなる進展のために、我々は全てのタスクを反復的に割り当てるためにInterleaved Task Allocation(ISTA)を提案する。
論文 参考訳(メタデータ) (2022-03-06T11:57:18Z) - Task Allocation for Multi-Robot Task and Motion Planning: a case for
Object Picking in Cluttered Workspaces [1.3535770763481902]
統合型マルチロボットタスクとモーションプランニング手法を提案する。
未知のオブジェクトの再配列を含むタスクを処理できる。
2つのフランカエミカマニピュレータのシミュレーション実験で実験を行った。
論文 参考訳(メタデータ) (2021-10-08T12:36:43Z) - Instance-Level Task Parameters: A Robust Multi-task Weighting Framework [17.639472693362926]
最近の研究によると、ディープニューラルネットワークは、複数の関連するタスク間で共有表現を学習することで、マルチタスク学習の恩恵を受けている。
トレーニングプロセスは、データセットの各インスタンスに対するタスクの最適な重み付けを規定します。
我々は,SURREALとCityScapesのデータセットを用いて,人間の形状とポーズ推定,深さ推定,セマンティックセグメンテーションタスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-06-11T02:35:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。