論文の概要: Self-supervised Visual Reinforcement Learning with Object-centric
Representations
- arxiv url: http://arxiv.org/abs/2011.14381v1
- Date: Sun, 29 Nov 2020 14:55:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 08:58:52.448397
- Title: Self-supervised Visual Reinforcement Learning with Object-centric
Representations
- Title(参考訳): オブジェクト中心表現を用いた自己教師付き視覚強化学習
- Authors: Andrii Zadaianchuk, Maximilian Seitzer, Georg Martius
- Abstract要約: 対象中心の表現をモジュラーおよび構造化された観測空間として用いることを提案する。
目標条件付きアテンションポリシーと組み合わせた表現の構造は,自律エージェントが有用なスキルを発見し,学習する上で有効であることを示す。
- 参考スコア(独自算出の注目度): 11.786249372283562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous agents need large repertoires of skills to act reasonably on new
tasks that they have not seen before. However, acquiring these skills using
only a stream of high-dimensional, unstructured, and unlabeled observations is
a tricky challenge for any autonomous agent. Previous methods have used
variational autoencoders to encode a scene into a low-dimensional vector that
can be used as a goal for an agent to discover new skills. Nevertheless, in
compositional/multi-object environments it is difficult to disentangle all the
factors of variation into such a fixed-length representation of the whole
scene. We propose to use object-centric representations as a modular and
structured observation space, which is learned with a compositional generative
world model. We show that the structure in the representations in combination
with goal-conditioned attention policies helps the autonomous agent to discover
and learn useful skills. These skills can be further combined to address
compositional tasks like the manipulation of several different objects.
- Abstract(参考訳): 自律エージェントは、これまで見たことのない新しいタスクで合理的に振る舞うために、大きなスキルのレパートリーを必要とします。
しかし、これらのスキルは、高次元、非構造、ラベルなしの観察ストリームのみを使用して取得することは、自律エージェントにとって難しい課題である。
以前の手法では変分オートエンコーダを使用してシーンを低次元ベクトルに符号化し、エージェントが新しいスキルを発見するための目標として使用できる。
それでも、構成的/多重対象環境においては、すべての要因をシーン全体の固定長表現に分解することは困難である。
合成生成世界モデルを用いて学習したモジュラー・構造化された観測空間としてオブジェクト中心表現を用いることを提案する。
目標条件付注意政策と組み合わせた表現の構造は,自律エージェントが有用なスキルを発見し,学習するのに役立つことを示す。
これらのスキルは、いくつかの異なるオブジェクトの操作のような構成的なタスクにさらに組み合わせることができる。
関連論文リスト
- Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Learning Reusable Manipulation Strategies [86.07442931141634]
人間は「トリック」を習得し、一般化する素晴らしい能力を実証する
本稿では,機械が1つの実演と自己演奏によってこのような操作スキルを習得することを可能にするフレームワークを提案する。
これらの学習メカニズムとサンプルは、標準的なタスクやモーションプランナにシームレスに統合できる。
論文 参考訳(メタデータ) (2023-11-06T17:35:42Z) - Robust and Controllable Object-Centric Learning through Energy-based
Models [95.68748828339059]
我々の研究は概念的にシンプルで一般的なアプローチであり、エネルギーベースモデルを通してオブジェクト中心の表現を学習する。
既存のアーキテクチャに容易に統合でき、高品質なオブジェクト中心表現を効果的に抽出できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:11:15Z) - Homomorphism Autoencoder -- Learning Group Structured Representations from Observed Transitions [51.71245032890532]
本研究では,世界に作用するエージェントが,それを修飾する動作と整合した感覚情報の内部表現を学習できるようにする手法を提案する。
既存の作業とは対照的に、我々のアプローチはグループの事前の知識を必要とせず、エージェントが実行可能なアクションのセットを制限しない。
論文 参考訳(メタデータ) (2022-07-25T11:22:48Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - Compositional Multi-Object Reinforcement Learning with Linear Relation
Networks [38.59852895970774]
我々は、固定されたマルチオブジェクト設定で操作タスクを学習し、オブジェクトの数が変化するとパフォーマンスが低下することなく、このスキルをゼロショットの外挿できるモデルに焦点を当てる。
我々のアプローチは、$K$で線形にスケールするので、エージェントは新しいオブジェクト番号にゼロショットを外挿して一般化することができる。
論文 参考訳(メタデータ) (2022-01-31T17:53:30Z) - Object Pursuit: Building a Space of Objects via Discriminative Weight
Generation [23.85039747700698]
視覚学習と理解のためのオブジェクト中心表現を継続的に学習するフレームワークを提案する。
我々は、オブジェクト中心の表現を学習しながら、オブジェクトとそれに対応するトレーニング信号の多様なバリエーションをサンプリングするために、インタラクションを活用する。
提案するフレームワークの重要な特徴について広範な研究を行い,学習した表現の特徴を分析した。
論文 参考訳(メタデータ) (2021-12-15T08:25:30Z) - Self-supervised Reinforcement Learning with Independently Controllable
Subgoals [20.29444813790076]
自己監督エージェントは、環境の構造を活用することで、自身の目標を設定した。
それらのいくつかは、合成多目的環境における基本的な操作スキルを学ぶために応用された。
本稿では,環境コンポーネント間の関係を推定し,環境状態の異なる部分を独立に制御する,新たな自己管理エージェントを提案する。
論文 参考訳(メタデータ) (2021-09-09T10:21:02Z) - Self-Supervision by Prediction for Object Discovery in Videos [62.87145010885044]
本稿では,この予測タスクを自己監督として利用し,画像シーケンス表現のための新しいオブジェクト中心モデルを構築する。
私たちのフレームワークは、手動アノテーションや事前トレーニングされたネットワークを使わずにトレーニングできます。
最初の実験では、提案されたパイプラインがオブジェクト中心のビデオ予測への有望なステップであることを確認した。
論文 参考訳(メタデータ) (2021-03-09T19:14:33Z) - Domain-Robust Visual Imitation Learning with Mutual Information
Constraints [0.0]
Disentangling Generative Adversarial Imitation Learning (DisentanGAIL)と呼ばれる新しいアルゴリズムを導入する。
本アルゴリズムは,タスクを実行する専門家の高次元観察から自律エージェントを直接学習することを可能にする。
論文 参考訳(メタデータ) (2021-03-08T21:18:58Z) - Object-Centric Learning with Slot Attention [43.684193749891506]
我々は、知覚表現と相互作用するアーキテクチャコンポーネントであるSlot Attentionモジュールを提示する。
Slot Attentionは、スロットと呼ばれるタスク依存の抽象表現を生成します。
Slot Attentionがオブジェクト中心の表現を抽出し、未知の合成を一般化できることを実証的に実証する。
論文 参考訳(メタデータ) (2020-06-26T15:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。