論文の概要: Universal Dexterous Functional Grasping via Demonstration-Editing Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2512.13380v1
- Date: Mon, 15 Dec 2025 14:32:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.356209
- Title: Universal Dexterous Functional Grasping via Demonstration-Editing Reinforcement Learning
- Title(参考訳): Demonstration-Editing Reinforcement LearningによるUniversal Dexterous Functional Grasping
- Authors: Chuan Mao, Haoqi Yuan, Ziye Huang, Chaoyi Xu, Kai Ma, Zongqing Lu,
- Abstract要約: ユニバーサルデクスタラス機能把握のためのDemoFunGraspを提案する。
機能的把握条件を2つの相補的構成要素 – 把握スタイルと余裕 – に分解する。
DemoFunGraspは、オブジェクト、余裕、把握スタイルの見当たらない組み合わせを一般化し、成功率と機能的把握精度の両方でベースラインを上回ります。
- 参考スコア(独自算出の注目度): 24.53415932687351
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning (RL) has achieved great success in dexterous grasping, significantly improving grasp performance and generalization from simulation to the real world. However, fine-grained functional grasping, which is essential for downstream manipulation tasks, remains underexplored and faces several challenges: the complexity of specifying goals and reward functions for functional grasps across diverse objects, the difficulty of multi-task RL exploration, and the challenge of sim-to-real transfer. In this work, we propose DemoFunGrasp for universal dexterous functional grasping. We factorize functional grasping conditions into two complementary components - grasping style and affordance - and integrate them into an RL framework that can learn to grasp any object with any functional grasping condition. To address the multi-task optimization challenge, we leverage a single grasping demonstration and reformulate the RL problem as one-step demonstration editing, substantially enhancing sample efficiency and performance. Experimental results in both simulation and the real world show that DemoFunGrasp generalizes to unseen combinations of objects, affordances, and grasping styles, outperforming baselines in both success rate and functional grasping accuracy. In addition to strong sim-to-real capability, by incorporating a vision-language model (VLM) for planning, our system achieves autonomous instruction-following grasp execution.
- Abstract(参考訳): 強化学習(Reinforcement Learning, RL)は, 厳密な把握において大きな成功を収め, 把握性能とシミュレーションから実世界への一般化を著しく向上させた。
しかし、下流操作タスクに不可欠な微細な機能的把握は未解決のままであり、様々な対象に対して機能的把握のための目標と報酬関数を指定する複雑さ、マルチタスクRL探索の難しさ、シム・トゥ・リアル・トランスファーの難しさなど、いくつかの課題に直面している。
そこで本研究では,DevFunGraspを一般化したデキスタラスな機能的把握法として提案する。
機能的把握条件を2つの相補的コンポーネント – 把握スタイルと余裕 – に分解し,それをRLフレームワークに統合して,任意の機能的把握条件でオブジェクトを把握できることを学習する。
マルチタスク最適化の課題に対処するために,1つのグルーピングデモを活用し,RL問題を1ステップのデモ編集として再構成し,サンプル効率と性能を大幅に向上する。
シミュレーションと実世界の両方の実験結果から、DemoFunGraspは、オブジェクト、余裕、把握スタイルの見当たらない組み合わせを一般化し、成功率と機能的把握精度の両方でベースラインを上回ります。
計画に視覚言語モデル(VLM)を組み込むことで,高機能なsim-to-real機能を実現するとともに,自律的な指示追従型グリップ実行を実現している。
関連論文リスト
- Co-Training Vision Language Models for Remote Sensing Multi-task Learning [68.15604397741753]
視覚言語モデル(VLM)は、RS画像理解、グラウンド化、超高解像度(UHR)画像推論において有望な結果を得た。
本稿では,RSMTLのための簡易かつ柔軟なVLMベースラインであるRSCoVLMを提案する。
本稿では、RS画像に固有の多様な画像スケールに対処する、統一された動的解像度戦略を提案する。
論文 参考訳(メタデータ) (2025-11-26T10:55:07Z) - Symmetry-Guided Multi-Agent Inverse Reinforcement Learning [13.021166929646718]
逆強化学習(IRL)は、専門家によるデモンストレーションから暗黙の報酬関数を推定することでこの問題に対処する。
既存の手法は、報酬関数を正確に回復するために、大量の専門家によるデモンストレーションに大きく依存している。
本稿では,既存のマルチエージェント逆IRLアルゴリズムに対称性を統合する普遍的フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-10T03:28:18Z) - Application of LLM Guided Reinforcement Learning in Formation Control with Collision Avoidance [1.1718316049475228]
マルチエージェントシステム(Multi-Agent Systems、MAS)は、個々のエージェントの協調作業を通じて複雑な目的を達成する。
本稿では,効果的な報酬関数を設計する上での課題を克服する新しい枠組みを提案する。
タスクの優先順位付けにおいて,大規模言語モデル(LLM)を付与することにより,オンライン上で動的に調整可能な報酬関数を生成する。
論文 参考訳(メタデータ) (2025-07-22T09:26:00Z) - Sim-to-Real Reinforcement Learning for Vision-Based Dexterous Manipulation on Humanoids [56.892520712892804]
本稿では,ヒューマノイドロボットを訓練して3つの巧妙な操作を行う,実用的なシミュレート・トゥ・リアルなRLレシピを提案する。
未確認のオブジェクトやロバストで適応的な政策行動に対して高い成功率を示す。
論文 参考訳(メタデータ) (2025-02-27T18:59:52Z) - DETAIL: Task DEmonsTration Attribution for Interpretable In-context Learning [75.68193159293425]
インコンテキスト学習(ICL)により、トランスフォーマーベースの言語モデルでは、パラメータを更新することなく、いくつかの"タスクデモ"で特定のタスクを学習することができる。
ICLの特徴に対処する影響関数に基づく帰属手法DETAILを提案する。
ホワイトボックスモデルで得られた属性スコアがブラックボックスモデルに転送可能であることを示すことにより、モデル性能を向上させる上で、DETAILの広範な適用性を実験的に証明する。
論文 参考訳(メタデータ) (2024-05-22T15:52:52Z) - Enhancing Q-Learning with Large Language Model Heuristics [0.0]
大規模言語モデル(LLM)は、単純なタスクでゼロショット学習を達成できるが、推論速度の低下と時折幻覚に悩まされる。
我々は,LLMを幻覚として活用し,強化学習のためのQ関数の学習を支援するフレームワークであるtextbfLLM-guided Q-learningを提案する。
論文 参考訳(メタデータ) (2024-05-06T10:42:28Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z) - Learning Sparse Rewarded Tasks from Sub-Optimal Demonstrations [78.94386823185724]
模倣学習は、既存の専門家のデモンストレーションを活用することで、スパース・リワードされたタスクで効果的に学習する。
実際には、十分な量の専門家によるデモンストレーションを集めることは、違法にコストがかかる。
限られた数の準最適実演に限り、最適性能を(ほぼ)達成できる自己適応学習(SAIL)を提案する。
論文 参考訳(メタデータ) (2020-04-01T15:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。