論文の概要: Contrastive Unsupervised Learning of World Model with Invariant Causal
Features
- arxiv url: http://arxiv.org/abs/2209.14932v1
- Date: Thu, 29 Sep 2022 16:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 15:41:40.223184
- Title: Contrastive Unsupervised Learning of World Model with Invariant Causal
Features
- Title(参考訳): 不変因果特徴をもつ世界モデルのコントラスト的教師なし学習
- Authors: Rudra P.K. Poudel, Harit Pandya, Roberto Cipolla
- Abstract要約: 共分散原理を用いて因果的特徴を学習する世界モデルを提案する。
対照的な教師なし学習を用いて、不変因果関係の特徴を学習する。
提案モデルは最先端のモデルと同等に動作する。
- 参考スコア(独自算出の注目度): 20.116319631571095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present a world model, which learns causal features using
the invariance principle. In particular, we use contrastive unsupervised
learning to learn the invariant causal features, which enforces invariance
across augmentations of irrelevant parts or styles of the observation. The
world-model-based reinforcement learning methods independently optimize
representation learning and the policy. Thus naive contrastive loss
implementation collapses due to a lack of supervisory signals to the
representation learning module. We propose an intervention invariant auxiliary
task to mitigate this issue. Specifically, we utilize depth prediction to
explicitly enforce the invariance and use data augmentation as style
intervention on the RGB observation space. Our design leverages unsupervised
representation learning to learn the world model with invariant causal
features. Our proposed method significantly outperforms current
state-of-the-art model-based and model-free reinforcement learning methods on
out-of-distribution point navigation tasks on the iGibson dataset. Moreover,
our proposed model excels at the sim-to-real transfer of our perception
learning module. Finally, we evaluate our approach on the DeepMind control
suite and enforce invariance only implicitly since depth is not available.
Nevertheless, our proposed model performs on par with the state-of-the-art
counterpart.
- Abstract(参考訳): 本稿では,非分散原理を用いて因果的特徴を学習する世界モデルを提案する。
特に、非教師なし学習を用いて不変因果関係の特徴を学習し、無関係な部分や観察スタイルの増大にまたがる不変性を強制する。
世界モデルに基づく強化学習手法は、表現学習とポリシーを独立に最適化する。
これにより、表現学習モジュールへの監視信号の欠如により、逆損失実装が崩壊する。
本稿では,この問題を軽減するための介入不変な補助タスクを提案する。
具体的には、奥行き予測を用いて、分散を明示的に強制し、RGB観測空間のスタイル介入としてデータ拡張を利用する。
我々の設計は教師なし表現学習を利用して不変因果的特徴を持つ世界モデルを学ぶ。
提案手法は,iGibsonデータセット上の分布外ナビゲーションタスクにおいて,現状のモデルベースおよびモデルフリー強化学習法を著しく上回っている。
さらに,提案モデルは知覚学習モジュールのsim-to-real転送に優れている。
最後に、DeepMindコントロールスイートに対する我々のアプローチを評価し、深さが利用できないため、暗黙的に不変性を強制する。
それでも,提案手法は最先端のモデルと同等である。
関連論文リスト
- On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
複数モーダルな)自己教師付き表現学習のための連続領域における識別確率モデル問題について検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Learning Non-Linear Invariants for Unsupervised Out-of-Distribution Detection [5.019613806273252]
非線型不変量学習が可能な正規化フロー様アーキテクチャからなるフレームワークを提案する。
提案手法は, 広範囲なU-OODベンチマークにおいて, 最先端の結果を得る。
論文 参考訳(メタデータ) (2024-07-04T16:01:21Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - ReCoRe: Regularized Contrastive Representation Learning of World Model [21.29132219042405]
対照的な教師なし学習と介入不変正規化器を用いて不変特徴を学習する世界モデルを提案する。
提案手法は,現状のモデルベースおよびモデルフリーのRL法より優れ,iGibsonベンチマークで評価された分布外ナビゲーションタスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-12-14T15:53:07Z) - ProtoVAE: Prototypical Networks for Unsupervised Disentanglement [1.6114012813668934]
本稿では,自己スーパービジョンを用いて学習した深層学習型プロトタイプネットワークを活用する,新しい深部生成型VAEモデルProtoVAEを提案する。
我々のモデルは、完全に教師なしであり、要素数を含むデータセットの事前知識を必要としない。
提案手法をベンチマークdSprites, 3DShapes, MPI3Dディジアングルメントデータセット上で評価した。
論文 参考訳(メタデータ) (2023-05-16T01:29:26Z) - Modeling Uncertain Feature Representation for Domain Generalization [49.129544670700525]
提案手法は,複数の視覚タスクにおけるネットワーク一般化能力を常に改善することを示す。
我々の手法は単純だが有効であり、トレーニング可能なパラメータや損失制約を伴わずにネットワークに容易に統合できる。
論文 参考訳(メタデータ) (2023-01-16T14:25:02Z) - Influence Tuning: Demoting Spurious Correlations via Instance
Attribution and Instance-Driven Updates [26.527311287924995]
インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
制御された設定では、インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
論文 参考訳(メタデータ) (2021-10-07T06:59:46Z) - Model-Invariant State Abstractions for Model-Based Reinforcement
Learning [54.616645151708994]
textitmodel-invarianceという新しいタイプの状態抽象化を紹介します。
これにより、状態変数の見当たらない値の新しい組み合わせへの一般化が可能になる。
このモデル不変状態抽象化を通じて最適なポリシーを学習できることを実証する。
論文 参考訳(メタデータ) (2021-02-19T10:37:54Z) - Joint Generative and Contrastive Learning for Unsupervised Person
Re-identification [15.486689594217273]
最近の自己指導型コントラスト学習は、教師なしの人物再識別(ReID)に効果的なアプローチを提供する
本稿では,GAN(Generative Adversarial Network)とコントラスト学習モジュールを1つのジョイントトレーニングフレームワークに統合する。
論文 参考訳(メタデータ) (2020-12-16T16:49:57Z) - On the Benefits of Invariance in Neural Networks [56.362579457990094]
データ拡張によるトレーニングは、リスクとその勾配をよりよく見積もることを示し、データ拡張でトレーニングされたモデルに対して、PAC-Bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
論文 参考訳(メタデータ) (2020-05-01T02:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。