論文の概要: General and Efficient Visual Goal-Conditioned Reinforcement Learning using Object-Agnostic Masks
- arxiv url: http://arxiv.org/abs/2510.06277v1
- Date: Mon, 06 Oct 2025 18:20:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.089601
- Title: General and Efficient Visual Goal-Conditioned Reinforcement Learning using Object-Agnostic Masks
- Title(参考訳): 物体非依存マスクを用いた視覚目標定義強化学習の汎用的・効率的化
- Authors: Fahim Shahriar, Cheryl Wang, Alireza Azimi, Gautham Vasan, Hany Hamed Elanwar, A. Rupam Mahmood, Colin Bellinger,
- Abstract要約: 本稿では,エージェントに物体に依存しない視覚的手がかりを提供するマスクベースの目標表現システムを提案する。
提案手法は,ターゲットの位置情報を使わずに,高い精度でピックアップタスクを実行できる。
- 参考スコア(独自算出の注目度): 8.744024335882703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Goal-conditioned reinforcement learning (GCRL) allows agents to learn diverse objectives using a unified policy. The success of GCRL, however, is contingent on the choice of goal representation. In this work, we propose a mask-based goal representation system that provides object-agnostic visual cues to the agent, enabling efficient learning and superior generalization. In contrast, existing goal representation methods, such as target state images, 3D coordinates, and one-hot vectors, face issues of poor generalization to unseen objects, slow convergence, and the need for special cameras. Masks can be processed to generate dense rewards without requiring error-prone distance calculations. Learning with ground truth masks in simulation, we achieved 99.9% reaching accuracy on training and unseen test objects. Our proposed method can be utilized to perform pick-up tasks with high accuracy, without using any positional information of the target. Moreover, we demonstrate learning from scratch and sim-to-real transfer applications using two different physical robots, utilizing pretrained open vocabulary object detection models for mask generation.
- Abstract(参考訳): 目標条件強化学習(GCRL)は、エージェントが統一されたポリシーを用いて多様な目的を学習できるようにする。
しかし、GCRLの成功は、ゴール表現の選択に起因している。
本研究では,エージェントに物体に依存しない視覚的手がかりを提供するマスクベースの目標表現システムを提案し,効率的な学習と優れた一般化を実現する。
対照的に、目標状態画像や3D座標、ワンホットベクトルといった既存の目標表現手法では、見えない物体への一般化が不十分で、収束が遅く、特別なカメラの必要性に直面している。
マスクは、エラーを起こしやすい距離の計算を必要とせずに、高密度の報酬を生成するために処理することができる。
シミュレーションで地上の真理マスクを用いて学習し、トレーニングや未確認のテストオブジェクトの精度を99.9%向上した。
提案手法は,ターゲットの位置情報を使わずに,高い精度でピックアップタスクを実行できる。
さらに,2つの物理ロボットを用いたスクラッチとシム・トゥ・リアル・トランスファーの学習を,マスク生成のための事前学習されたオープン語彙オブジェクト検出モデルを用いて実証した。
関連論文リスト
- ObjectVLA: End-to-End Open-World Object Manipulation Without Demonstration [10.558622685760346]
本稿では,視覚・言語・アクションモデルによるオブジェクトの一般化を実現するための,シンプルで効果的な手法を提案する。
我々の手法は、ターゲットオブジェクトに関する知識を注入する軽量でスケーラブルな方法を提供する。
我々は、実際のロボットプラットフォーム上でObjectVLAを評価し、64%の成功率で100の新規オブジェクトを一般化できることを実証した。
論文 参考訳(メタデータ) (2025-02-26T15:56:36Z) - LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Exploring Target Representations for Masked Autoencoders [78.57196600585462]
目的表現の注意深い選択は、よい表現を学ぶために不要であることを示す。
本研究では,多段階のマスク蒸留パイプラインを提案し,無作為なモデルを教師として利用する。
自己指導型自己指導法を非自明なマージンで上回り, 自己指導型教員(dBOT)によるマスク付き知識蒸留を行う手法を提案する。
論文 参考訳(メタデータ) (2022-09-08T16:55:19Z) - Visuomotor Control in Multi-Object Scenes Using Object-Aware
Representations [25.33452947179541]
ロボット作業におけるオブジェクト指向表現学習の有効性を示す。
本モデルは,サンプル効率のよい制御ポリシーを学習し,最先端のオブジェクト技術より優れている。
論文 参考訳(メタデータ) (2022-05-12T19:48:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。