論文の概要: Compositional Multi-Object Reinforcement Learning with Linear Relation
Networks
- arxiv url: http://arxiv.org/abs/2201.13388v1
- Date: Mon, 31 Jan 2022 17:53:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 16:14:49.544849
- Title: Compositional Multi-Object Reinforcement Learning with Linear Relation
Networks
- Title(参考訳): 線形関係ネットワークを用いた多目的強化学習
- Authors: Davide Mambelli, Frederik Tr\"auble, Stefan Bauer, Bernhard
Sch\"olkopf, Francesco Locatello
- Abstract要約: 我々は、固定されたマルチオブジェクト設定で操作タスクを学習し、オブジェクトの数が変化するとパフォーマンスが低下することなく、このスキルをゼロショットの外挿できるモデルに焦点を当てる。
我々のアプローチは、$K$で線形にスケールするので、エージェントは新しいオブジェクト番号にゼロショットを外挿して一般化することができる。
- 参考スコア(独自算出の注目度): 38.59852895970774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although reinforcement learning has seen remarkable progress over the last
years, solving robust dexterous object-manipulation tasks in multi-object
settings remains a challenge. In this paper, we focus on models that can learn
manipulation tasks in fixed multi-object settings and extrapolate this skill
zero-shot without any drop in performance when the number of objects changes.
We consider the generic task of bringing a specific cube out of a set to a goal
position. We find that previous approaches, which primarily leverage attention
and graph neural network-based architectures, do not generalize their skills
when the number of input objects changes while scaling as $K^2$. We propose an
alternative plug-and-play module based on relational inductive biases to
overcome these limitations. Besides exceeding performances in their training
environment, we show that our approach, which scales linearly in $K$, allows
agents to extrapolate and generalize zero-shot to any new object number.
- Abstract(参考訳): 強化学習はここ数年で著しい進歩を遂げてきたが、マルチオブジェクト環境で頑健なオブジェクト操作タスクを解決することは依然として課題である。
本稿では,固定されたマルチオブジェクト設定で操作タスクを学習できるモデルに着目し,オブジェクト数の変化時に性能を低下させることなく,このスキルをゼロショットで推定する。
集合から特定の立方体をゴール位置に導くという一般的なタスクを考える。
従来のアプローチは、主に注意とグラフニューラルネットワークに基づくアーキテクチャを利用していたが、K^2$のスケールで入力オブジェクトの数が変化すると、そのスキルは一般化されない。
本稿では,これらの制約を克服するために,リレーショナル帰納バイアスに基づくプラグアンドプレイモジュールを提案する。
トレーニング環境でのパフォーマンスを超過するだけでなく、k$で線形にスケールする我々のアプローチでは、エージェントがゼロショットを新しいオブジェクト番号に外挿し、一般化できることを示します。
関連論文リスト
- Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Deep Learning-Based Object Pose Estimation: A Comprehensive Survey [73.74933379151419]
ディープラーニングに基づくオブジェクトポーズ推定の最近の進歩について論じる。
また、複数の入力データモダリティ、出力ポーズの自由度、オブジェクト特性、下流タスクについても調査した。
論文 参考訳(メタデータ) (2024-05-13T14:44:22Z) - TaE: Task-aware Expandable Representation for Long Tail Class Incremental Learning [42.630413950957795]
本稿では,各タスクから多様な表現を学習するための新しいタスク対応拡張(TaE)フレームワークを提案する。
TaEは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-08T16:37:04Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Efficient and Robust Training of Dense Object Nets for Multi-Object
Robot Manipulation [8.321536457963655]
我々はDense Object Nets(DON)の堅牢で効率的なトレーニングのためのフレームワークを提案する。
本研究は,多目的データを用いた学習に重点を置いている。
実世界のロボットによる把握作業において,提案手法の頑健さと精度を実証する。
論文 参考訳(メタデータ) (2022-06-24T08:24:42Z) - Improving Feature Generalizability with Multitask Learning in Class
Incremental Learning [12.632121107536843]
キーワードスポッティングのような多くのディープラーニングアプリケーションは、クラスインクリメンタルラーニング(CIL)と呼ばれる新しい概念(クラス)を時間とともに組み込む必要がある。
CILの最大の課題は、破滅的な忘れ、すなわち、新しいタスクを学習しながら可能な限り多くの古い知識を保存することである。
本稿では,基本モデルトレーニング中のマルチタスク学習による特徴一般化性の向上を提案する。
提案手法は,平均漸進的学習精度を最大5.5%向上させ,時間とともにより信頼性が高く正確なキーワードスポッティングを可能にする。
論文 参考訳(メタデータ) (2022-04-26T07:47:54Z) - Plug and Play, Model-Based Reinforcement Learning [60.813074750879615]
我々は、既知のオブジェクトクラスから新しいオブジェクトをゼロショットで統合できるオブジェクトベースの表現を導入する。
これは、グローバル遷移力学を局所遷移関数の和として表現することで達成される。
実験により, 様々なセットアップにおいて, サンプル効率が達成できることが示された。
論文 参考訳(メタデータ) (2021-08-20T01:20:15Z) - Hierarchical Few-Shot Imitation with Skill Transition Models [66.81252581083199]
FIST(Few-shot Imitation with Skill Transition Models)は、オフラインデータからスキルを抽出し、それらを利用して見えないタスクに一般化するアルゴリズムである。
本稿では,FISTが新たなタスクに一般化し,ナビゲーション実験において従来のベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-07-19T15:56:01Z) - Self-supervised Visual Reinforcement Learning with Object-centric
Representations [11.786249372283562]
対象中心の表現をモジュラーおよび構造化された観測空間として用いることを提案する。
目標条件付きアテンションポリシーと組み合わせた表現の構造は,自律エージェントが有用なスキルを発見し,学習する上で有効であることを示す。
論文 参考訳(メタデータ) (2020-11-29T14:55:09Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。