論文の概要: SiT: Symmetry-Invariant Transformers for Generalisation in Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2406.15025v1
- Date: Fri, 21 Jun 2024 10:03:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 13:53:51.454175
- Title: SiT: Symmetry-Invariant Transformers for Generalisation in Reinforcement Learning
- Title(参考訳): SiT: 強化学習における一般化のための対称性不変変換器
- Authors: Matthias Weissenbacher, Rishabh Agarwal, Yoshinobu Kawahara,
- Abstract要約: 拡張型視覚変換器(ViT)であるSymmetry-Invariant Transformer(SiT)を紹介する。
私たちのアプローチの中心はグラフ対称性の注意(Graph Symmetric Attention)であり、グラフ対称性を保存するための従来の自己認識メカニズムを洗練します。
我々は、MiniGridおよびProcgen RLベンチマーク上でのSiTのViTに対する優れた一般化と、Atari 100kおよびCIFAR10上でのサンプル効率を示す。
- 参考スコア(独自算出の注目度): 18.238740746181875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An open challenge in reinforcement learning (RL) is the effective deployment of a trained policy to new or slightly different situations as well as semantically-similar environments. We introduce Symmetry-Invariant Transformer (SiT), a scalable vision transformer (ViT) that leverages both local and global data patterns in a self-supervised manner to improve generalisation. Central to our approach is Graph Symmetric Attention, which refines the traditional self-attention mechanism to preserve graph symmetries, resulting in invariant and equivariant latent representations. We showcase SiT's superior generalization over ViTs on MiniGrid and Procgen RL benchmarks, and its sample efficiency on Atari 100k and CIFAR10.
- Abstract(参考訳): 強化学習(RL)におけるオープンな課題は、訓練されたポリシーを、新しい、またはわずかに異なる状況や意味的に類似した環境に効果的に展開することである。
我々は、局所的およびグローバルなデータパターンを自己管理的に活用し、一般化を改善するスケーラブルな視覚変換器(ViT)であるSymmetry-Invariant Transformer(SiT)を紹介する。
グラフ対称性アテンション(Graph Symmetric Attention)は、グラフ対称性を保存するための従来の自己アテンション機構を洗練し、不変かつ同変な潜在表現をもたらす。
我々は、MiniGridおよびProcgen RLベンチマーク上でのSiTのViTに対する優れた一般化と、Atari 100kおよびCIFAR10上でのサンプル効率を示す。
関連論文リスト
- INViT: A Generalizable Routing Problem Solver with Invariant Nested View Transformer [17.10555702634864]
深い強化学習は、高速ルーティングを学習してルーティング問題を解決するための有望な結果を示している。
解法の大半は、異なるスケールで見えない分布や分布に一般化することに苦しむ。
Invariant Nested View Transformer (INViT) と呼ばれる新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-02-04T02:09:30Z) - Equivariant Data Augmentation for Generalization in Offline
Reinforcement Learning [10.00979536266327]
オフライン強化学習(RL)における一般化の課題に対処する新しいアプローチを提案する。
具体的には,エージェントのアウト・オブ・ディストリビューション目標への一般化能力の向上を目指す。
我々は、オフラインのオフラインRLアルゴリズムを用いて、拡張データセットに基づいて新しいポリシーをオフラインで学習する。
論文 参考訳(メタデータ) (2023-09-14T10:22:33Z) - Transformers as Support Vector Machines [54.642793677472724]
自己アテンションの最適化幾何と厳密なSVM問題との間には,形式的等価性を確立する。
勾配降下に最適化された1層変圧器の暗黙バイアスを特徴付ける。
これらの発見は、最適なトークンを分離し選択するSVMの階層としてのトランスフォーマーの解釈を刺激していると信じている。
論文 参考訳(メタデータ) (2023-08-31T17:57:50Z) - Learning Probabilistic Symmetrization for Architecture Agnostic Equivariance [16.49488981364657]
群対称性を持つ学習関数における同変アーキテクチャの限界を克服する新しい枠組みを提案する。
我々は、不変量や変圧器のような任意の基底モデルを使用し、それを与えられた群に同変するように対称性付けする。
実証実験は、調整された同変アーキテクチャに対する競争結果を示す。
論文 参考訳(メタデータ) (2023-06-05T13:40:54Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - Data Augmentation vs. Equivariant Networks: A Theory of Generalization
on Dynamics Forecasting [24.363954435050264]
力学系における対称性の爆発は、ディープラーニングの一般化を改善する強力な方法である。
データ拡張と同変ネットワークは、学習に対称性を注入する2つの主要なアプローチである。
データ拡張と同変ネットワークの一般化境界を導出し、統一されたフレームワークにおける学習に対するそれらの効果を特徴づける。
論文 参考訳(メタデータ) (2022-06-19T17:00:12Z) - Towards Lightweight Transformer via Group-wise Transformation for
Vision-and-Language Tasks [126.33843752332139]
本稿では,LW-Transformerと呼ばれる視覚・言語タスクのための,普遍的で軽量なトランスフォーマーに対するグループワイズ変換を提案する。
LW-Transformerを一組のTransformerベースのネットワークに適用し、3つの視覚・言語タスクと6つのベンチマークデータセットで定量的に測定する。
実験の結果,LW-Transformerは多数のパラメータや計算を節約しながら,視覚・言語タスクのためのトランスフォーマーネットワークと非常に競合する性能を発揮することがわかった。
論文 参考訳(メタデータ) (2022-04-16T11:30:26Z) - Plug-In Inversion: Model-Agnostic Inversion for Vision with Data
Augmentations [61.95114821573875]
単純な拡張セットに依存し、過剰なハイパーパラメータチューニングを必要としないPlug-In Inversionを導入する。
ImageNetデータセットでトレーニングされたビジョントランスフォーマー(ViT)とマルチ層パーセプトロン(MLP)を反転させることにより,我々のアプローチの実用性を説明する。
論文 参考訳(メタデータ) (2022-01-31T02:12:45Z) - Analogous to Evolutionary Algorithm: Designing a Unified Sequence Model [58.17021225930069]
実演的進化アルゴリズム(EA)と類似した視覚変換器の合理性について説明する。
我々は、より効率的なEATモデルを提案し、様々なタスクに柔軟に対処するタスク関連ヘッドを設計する。
近年のビジョントランスに比べて,イメージネット分類作業における最先端の成果が得られている。
論文 参考訳(メタデータ) (2021-05-31T16:20:03Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - Group Equivariant Generative Adversarial Networks [7.734726150561089]
本研究では,グループ同変畳み込みネットワークを通じて,帰納的対称性をネットワークアーキテクチャに明示的に組み込む。
群変換はより表現力が高く、サンプルが少ないため、ジェネレータと判別器の間の勾配フィードバックが向上する。
論文 参考訳(メタデータ) (2020-05-04T17:38:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。