論文の概要: JEPA for RL: Investigating Joint-Embedding Predictive Architectures for Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2504.16591v1
- Date: Wed, 23 Apr 2025 10:16:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 16:57:19.151287
- Title: JEPA for RL: Investigating Joint-Embedding Predictive Architectures for Reinforcement Learning
- Title(参考訳): JEPA for RL: 強化学習のための共同組み込み予測アーキテクチャの調査
- Authors: Tristan Kenneweg, Philip Kenneweg, Barbara Hammer,
- Abstract要約: 画像からの学習を補強するために,統合埋め込み予測アーキテクチャをどのように適応させるかを示す。
モデル崩壊を議論し、それを防ぐ方法を示し、古典的なカートポールタスクの例示データを提供する。
- 参考スコア(独自算出の注目度): 4.862490782515929
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Joint-Embedding Predictive Architectures (JEPA) have recently become popular as promising architectures for self-supervised learning. Vision transformers have been trained using JEPA to produce embeddings from images and videos, which have been shown to be highly suitable for downstream tasks like classification and segmentation. In this paper, we show how to adapt the JEPA architecture to reinforcement learning from images. We discuss model collapse, show how to prevent it, and provide exemplary data on the classical Cart Pole task.
- Abstract(参考訳): JEPA(Joint-Embedding Predictive Architectures)は、最近、自己教師型学習のための有望なアーキテクチャとして人気を集めている。
ビジョントランスフォーマーは、JEPAを使用してイメージやビデオからの埋め込みを生成するように訓練されており、分類やセグメンテーションといった下流タスクに非常に適していることが示されている。
本稿では,JEPAアーキテクチャを画像からの強化学習に適用する方法を示す。
モデル崩壊を議論し、それを防ぐ方法を示し、古典的なカートポールタスクの例示データを提供する。
関連論文リスト
- SparseJEPA: Sparse Representation Learning of Joint Embedding Predictive Architectures [0.46040036610482665]
JEPA(Joint Embedding Predictive Architectures)は、汎用的な表現を学ぶための強力なフレームワークとして登場した。
本稿では,スパース表現学習をJEPAフレームワークに統合し,学習表現の質を高める拡張であるSparseJEPAを提案する。
論文 参考訳(メタデータ) (2025-04-22T02:43:00Z) - ACT-JEPA: Novel Joint-Embedding Predictive Architecture for Efficient Policy Representation Learning [90.41852663775086]
ACT-JEPAは模倣学習と自己教師型学習を統合する新しいアーキテクチャである。
我々はアクションシーケンスと抽象的な観察シーケンスを予測するポリシーを訓練する。
実験の結果,ACT-JEPAは時間環境の動的学習によって表現の質を向上させることがわかった。
論文 参考訳(メタデータ) (2025-01-24T16:41:41Z) - Connecting Joint-Embedding Predictive Architecture with Contrastive Self-supervised Learning [14.869908713261227]
Contrastive-JEPAは、画像ベースのジョイントエンベッドディング予測アーキテクチャと可変不変共分散正規化(VICReg)戦略を統合している。
C-JEPAは視覚表現学習の安定性と品質を大幅に向上させる。
ImageNet-1Kデータセットで事前トレーニングされた場合、C-JEPAは線形プローブと微調整パフォーマンスメトリクスの両方において、迅速で改善された収束を示す。
論文 参考訳(メタデータ) (2024-10-25T13:48:12Z) - Joint-Embedding Predictive Architecture for Self-Supervised Learning of Mask Classification Architecture [5.872289712903129]
マスク分類アーキテクチャ(MCA)に適した自己教師型学習フレームワークであるMask-JEPAを紹介する。
Mask-JEPAは、統合埋め込み予測アーキテクチャとMCAを組み合わせることで、複雑なセマンティクスと正確なオブジェクト境界を正確にキャプチャする。
提案手法は,1) 画素デコーダから普遍的画像分割のための包括的表現を抽出し,2) 変換器デコーダを効果的に訓練する,自己教師型学習における2つの重要な課題に対処する。
論文 参考訳(メタデータ) (2024-07-15T14:01:03Z) - Jointly Training and Pruning CNNs via Learnable Agent Guidance and Alignment [69.33930972652594]
本稿では,CNNモデルの重みと構造的プーン構造を協調的に学習するための新しい構造的プルーニング手法を提案する。
本手法の中核となる要素は強化学習(RL)エージェントであり,その動作がCNNモデルの階層のプルーニング比を決定する。
我々は,モデルの重みとエージェントのポリシーを反復的に訓練し,共同訓練と刈り取りを行う。
論文 参考訳(メタデータ) (2024-03-28T15:22:29Z) - Graph-level Representation Learning with Joint-Embedding Predictive Architectures [43.89120279424267]
JEPA(Joint-Embedding Predictive Architectures)は、自己指導型表現学習の斬新で強力な技術である。
グラフ結合埋め込み予測アーキテクチャ(Graph-JEPA)を提案することにより、このパラダイムを用いてグラフレベルの表現を効果的にモデル化できることを示す。
特に、マスク付きモデリングを採用し、コンテキストサブグラフの潜時表現から始まるマスク付きサブグラフの潜時表現を予測することに焦点をあてる。
論文 参考訳(メタデータ) (2023-09-27T20:42:02Z) - Self-Supervised Learning from Images with a Joint-Embedding Predictive
Architecture [43.83887661156133]
本稿では,手作業によるデータ拡張に頼らずに,高度に意味のある画像表現を学習するためのアプローチを示す。
本稿では,画像からの自己教師型学習のための非生成的アプローチであるイメージベースジョイントエンベッドディング予測アーキテクチャ(I-JEPA)を紹介する。
論文 参考訳(メタデータ) (2023-01-19T18:59:01Z) - Joint Embedding Predictive Architectures Focus on Slow Features [56.393060086442006]
JEPA(Joint Embedding Predictive Architectures)は、再構築不要の代替手段を提供する。
我々は、VICRegとSimCLRで訓練されたJEPAのパフォーマンスを、報酬にアクセスできることなく完全にオフラインで分析する。
JEPAメソッドはステップ毎にノイズが変わるが、ノイズが修正されるとフェールする。
論文 参考訳(メタデータ) (2022-11-20T00:50:11Z) - Modeling Image Composition for Complex Scene Generation [77.10533862854706]
本稿では,レイアウト・ツー・イメージ生成タスクにおける最先端結果を実現する手法を提案する。
本稿では,RGB画像をパッチトークンに圧縮した後,オブジェクト・トゥ・オブジェクト,オブジェクト・トゥ・パッチ,パッチ・トゥ・パッチの依存関係を探索するTransformer with Focal Attention (TwFA)を提案する。
論文 参考訳(メタデータ) (2022-06-02T08:34:25Z) - DAFormer: Improving Network Architectures and Training Strategies for
Domain-Adaptive Semantic Segmentation [99.88539409432916]
教師なしドメイン適応(UDA)プロセスについて検討する。
ベンチマーク結果に基づいて,新しい UDA 手法である DAFormer を提案する。
DAFormerは,GTA->Cityscapesの10.8 mIoU,Synthia->Cityscapesの5.4 mIoUにより,最先端の性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-29T19:00:46Z) - Retinex-inspired Unrolling with Cooperative Prior Architecture Search
for Low-light Image Enhancement [58.72667941107544]
低照度画像のための軽量で効果的な拡張ネットワークを構築するために,Retinex-inspired Unrolling with Architecture Search (RUAS)を提案する。
RUASは、高速かつ少ない計算リソースで、最高性能の画像強化ネットワークを得ることができます。
論文 参考訳(メタデータ) (2020-12-10T11:51:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。