論文の概要: Contact Coverage-Guided Exploration for General-Purpose Dexterous Manipulation
- arxiv url: http://arxiv.org/abs/2603.10971v1
- Date: Wed, 11 Mar 2026 16:55:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:33.064377
- Title: Contact Coverage-Guided Exploration for General-Purpose Dexterous Manipulation
- Title(参考訳): 汎用デキスタラスマニピュレーションのためのコンタクトカバーガイドによる探索
- Authors: Zixuan Liu, Ruoyi Qiao, Chenrui Tie, Xuanwei Liu, Yunfan Lou, Chongkai Gao, Zhixuan Xu, Lin Shao,
- Abstract要約: CCGE(Contact Coverage-Guided Exploration)は、汎用的なデクスタラスな操作タスクのために設計された一般的な探索手法である。
CCGEは、物体の表面点と予め定義された手指のキーポイントの交点として接触状態を表す。
実験の結果,CCGEは既存の探査法よりもトレーニング効率と成功率を大幅に向上することがわかった。
- 参考スコア(独自算出の注目度): 7.841704182501356
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Reinforcement learning (DRL) has achieved remarkable success in domains with well-defined reward structures, such as Atari games and locomotion. In contrast, dexterous manipulation lacks general-purpose reward formulations and typically depends on task-specific, handcrafted priors to guide hand-object interactions. We propose Contact Coverage-Guided Exploration (CCGE), a general exploration method designed for general-purpose dexterous manipulation tasks. CCGE represents contact state as the intersection between object surface points and predefined hand keypoints, encouraging dexterous hands to discover diverse and novel contact patterns, namely which fingers contact which object regions. It maintains a contact counter conditioned on discretized object states obtained via learned hash codes, capturing how frequently each finger interacts with different object regions. This counter is leveraged in two complementary ways: (1) to assign a count-based contact coverage reward that promotes exploration of novel contact patterns, and (2) an energy-based reaching reward that guides the agent toward under-explored contact regions. We evaluate CCGE on a diverse set of dexterous manipulation tasks, including cluttered object singulation, constrained object retrieval, in-hand reorientation, and bimanual manipulation. Experimental results show that CCGE substantially improves training efficiency and success rates over existing exploration methods, and that the contact patterns learned with CCGE transfer robustly to real-world robotic systems. Project page is https://contact-coverage-guided-exploration.github.io.
- Abstract(参考訳): 深層強化学習(DRL)は、アタリゲームやロコモーションなど、明確に定義された報酬構造を持つ領域で顕著に成功している。
対照的に、器用な操作は汎用的な報酬の定式化を欠き、通常、手動の相互作用を導くためにタスク固有の手作りの先行に依存する。
本稿では,汎用的なデキスタス操作タスクのための汎用探索法であるCCGEを提案する。
CCGEは、接触状態を物体の表面点と予め定義された手指のキーポイントの交点として表現し、様々な新しい接触パターン、すなわち、どの指が対象領域に接触しているかを見出すために、器用な手を奨励する。
学習したハッシュコードを介して得られた離散化されたオブジェクト状態に条件付けされたコンタクトカウンタを保持し、各指が異なるオブジェクト領域とどの程度の頻度で相互作用するかをキャプチャする。
本カウンタは,(1)新規接触パターンの探索を促進するカウントベースの接触カバレッジ報酬を割り当てること,(2)未探索接触領域にエージェントを誘導するエネルギーベースのリーチ報酬を付与すること,の2つの相補的な方法で活用する。
我々は,乱雑なオブジェクトの歌唱,制約されたオブジェクトの検索,手動のリオリエンテーション,両手動操作など,多様な操作タスクに対してCCGEを評価した。
実験の結果, CCGEは既存の探査法よりもトレーニング効率と成功率を大幅に向上し, 実世界のロボットシステムにCCGEで学習した接触パターンが強力に伝達されることが示唆された。
プロジェクトページはhttps://contact-coverage-guided-exploration.github.io。
関連論文リスト
- One-Shot Manipulation Strategy Learning by Making Contact Analogies [43.378561955780214]
本稿では,新しい物体への高速かつ広範囲な一般化による操作戦略のワンショット学習のための新しいアプローチMAGICを提案する。
リファレンスアクショントラジェクトリを活用することで、MAGICは、新しいオブジェクト上の類似した接触点とアクションのシーケンスを効果的に識別する。
MAGICは既存の手法よりも優れた性能を示し、実行速度を大幅に向上し、異なるオブジェクトカテゴリへの一般化を実現している。
論文 参考訳(メタデータ) (2024-11-14T17:54:43Z) - ClickDiff: Click to Induce Semantic Contact Map for Controllable Grasp Generation with Diffusion Models [17.438429495623755]
ClickDiffは、きめ細かいセマンティックコンタクトマップを利用する制御可能な条件生成モデルである。
このフレームワーク内では、セマンティック条件付きモジュールは、きめ細かい接触情報に基づいて適切な接触マップを生成する。
提案手法の有効性を検証し,ClickDiffの有効性とロバスト性を実証した。
論文 参考訳(メタデータ) (2024-07-28T02:42:29Z) - GEARS: Local Geometry-aware Hand-object Interaction Synthesis [38.75942505771009]
本研究では, 相互作用領域近傍の局所物体形状を推定するための, 結合中心型センサを提案する。
学習の複雑さを軽減するための重要なステップとして、グローバルフレームからテンプレートハンドフレームにポイントを変換し、共有モジュールを使用して各関節のセンサ特徴を処理する。
これに続いて、異なる次元の関節間の相関を捉えることを目的とした知覚時間変換ネットワークが提供される。
論文 参考訳(メタデータ) (2024-04-02T09:18:52Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - Contact-Aware Retargeting of Skinned Motion [49.71236739408685]
本稿では,自己接触を保存し,相互接続を防止する動作推定手法を提案する。
入力運動における自己接触と接地を同定し、出力骨格に適用するための動作を最適化する。
実験では,従来の手法を定量的に上回り,近年の成果よりも高い品質で再ターゲットされた動きを評価できるユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-09-15T17:05:02Z) - MD-CSDNetwork: Multi-Domain Cross Stitched Network for Deepfake
Detection [80.83725644958633]
現在のディープフェイク生成法では、偽画像やビデオの周波数スペクトルに識別的アーティファクトが残されている。
MD-CSDNetwork(MD-CSDNetwork)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T14:11:53Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z) - GID-Net: Detecting Human-Object Interaction with Global and Instance
Dependency [67.95192190179975]
GIDブロックと呼ばれる2段階の訓練可能な推論機構を導入する。
GID-Netは、ヒューマンブランチ、オブジェクトブランチ、インタラクションブランチで構成される、人間とオブジェクトのインタラクション検出フレームワークである。
我々は,提案したGID-Netを,V-COCOとHICO-DETを含む2つの公開ベンチマーク上で既存の最先端手法と比較した。
論文 参考訳(メタデータ) (2020-03-11T11:58:43Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。