論文の概要: GLAM: Global-Local Variation Awareness in Mamba-based World Model
- arxiv url: http://arxiv.org/abs/2501.11949v1
- Date: Tue, 21 Jan 2025 07:47:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:21:24.090892
- Title: GLAM: Global-Local Variation Awareness in Mamba-based World Model
- Title(参考訳): GLAM:マンバ世界モデルにおけるグローバルローカル変動認識
- Authors: Qian He, Wenqi Liang, Chunhui Hao, Gan Sun, Jiandong Tian,
- Abstract要約: 我々は,グローバルローカルな変化を意識したマンバ世界モデル(GLAM)を導入し,状態間の変動を知覚・予測することで推論品質を向上させる。
GLAMは2つのMambaベースの並列推論モジュール、GMambaとLMambaから構成される。
本手法は,Atari 100kベンチマークにおいて,正規化された人間のスコアの既存手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 44.12345990764248
- License:
- Abstract: Mimicking the real interaction trajectory in the inference of the world model has been shown to improve the sample efficiency of model-based reinforcement learning (MBRL) algorithms. Many methods directly use known state sequences for reasoning. However, this approach fails to enhance the quality of reasoning by capturing the subtle variation between states. Much like how humans infer trends in event development from this variation, in this work, we introduce Global-Local variation Awareness Mamba-based world model (GLAM) that improves reasoning quality by perceiving and predicting variation between states. GLAM comprises two Mambabased parallel reasoning modules, GMamba and LMamba, which focus on perceiving variation from global and local perspectives, respectively, during the reasoning process. GMamba focuses on identifying patterns of variation between states in the input sequence and leverages these patterns to enhance the prediction of future state variation. LMamba emphasizes reasoning about unknown information, such as rewards, termination signals, and visual representations, by perceiving variation in adjacent states. By integrating the strengths of the two modules, GLAM accounts for highervalue variation in environmental changes, providing the agent with more efficient imagination-based training. We demonstrate that our method outperforms existing methods in normalized human scores on the Atari 100k benchmark.
- Abstract(参考訳): モデルベース強化学習(MBRL)アルゴリズムのサンプル効率を向上させるために,世界モデルの推論における実際の相互作用軌跡の緩和が示されている。
多くの方法は、推論に既知の状態列を直接使用する。
しかし、このアプローチは状態間の微妙な変化を捉えて推論の質を高めることに失敗する。
この変化から人間がイベントの発達の傾向を推定する方法と同様に、本稿では、状態間の変動を知覚し予測することで、推論品質を向上させるグローバル・ローカルなアウェアネス・マンバベースの世界モデル(GLAM)を導入する。
GLAMは2つのMambaベースの並列推論モジュール(GMambaとLMamba)から構成される。
GMambaは入力シーケンス内の状態間の変動パターンを特定し、これらのパターンを活用して将来の状態変動の予測を強化する。
LMambaは、隣接する状態の変化を知覚することで、報酬、終了信号、視覚表現などの未知の情報に対する推論を強調する。
2つのモジュールの強度を統合することで、GLAMは環境変化のより価値の高い変化を説明でき、エージェントにより効率的な想像力に基づくトレーニングを提供する。
本手法は,Atari 100kベンチマークにおいて,正規化された人間のスコアの既存手法よりも優れていることを示す。
関連論文リスト
- Linguistic Fuzzy Information Evolution with Random Leader Election Mechanism for Decision-Making Systems [58.67035332062508]
言語ファジィ情報進化はエージェント間の情報交換を理解する上で重要である。
エージェントの重みの違いは、古典的なDeGrootモデルにおいて異なる収束結果をもたらす可能性がある。
本稿では,言語ファジィ情報力学の新しい3つのモデルを提案する。
論文 参考訳(メタデータ) (2024-10-19T18:15:24Z) - A Mamba-based Siamese Network for Remote Sensing Change Detection [27.200043694866388]
リモートセンシング画像における変化検出は、異なるタイミングで領域を解析するための重要なツールである。
CNNやTransformerといったディープラーニングの手法は、大きな変化を検出することに成功しています。
本研究では,関心領域をよりよく分割するマンバ型変化検出器(M-CD)を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:05:48Z) - Mamba as Decision Maker: Exploring Multi-scale Sequence Modeling in Offline Reinforcement Learning [16.23977055134524]
我々はMamba Decision Maker (MambaDM) という新しいアクション予測手法を提案する。
MambaDMは、マルチスケール依存関係の効率的なモデリングのため、シーケンスモデリングのパラダイムの有望な代替品として期待されている。
本稿では,RL領域におけるMambaDMのシーケンスモデリング機能について述べる。
論文 参考訳(メタデータ) (2024-06-04T06:49:18Z) - DGMamba: Domain Generalization via Generalized State Space Model [80.82253601531164]
ドメイン一般化(DG)は、様々な場面における分散シフト問題を解決することを目的としている。
Mambaは、新興状態空間モデル(SSM)として、より優れた線形複雑性と大域的受容場を持つ。
本稿では,DGMamba という新たな DG フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-11T14:35:59Z) - SETA: Semantic-Aware Token Augmentation for Domain Generalization [27.301312891532277]
ドメイン一般化(DG)は、ターゲットドメインにアクセスすることなく、ドメインシフトに対するモデルを強化することを目的としている。
トークンベースのモデルに対する従来のCNNベースの拡張手法は、全体的な形状情報を学ぶためのモデルへのインセンティブが欠如しているため、亜最適である。
本研究では,グローバルな形状を保ちながら局所的なエッジキューを摂動することで特徴を変換するセマンティック・アウェア・トークン拡張(SETA)法を提案する。
論文 参考訳(メタデータ) (2024-03-18T13:50:35Z) - Adaptive Global-Local Representation Learning and Selection for
Cross-Domain Facial Expression Recognition [54.334773598942775]
ドメインシフトは、クロスドメイン顔表情認識(CD-FER)において重要な課題となる
適応的グローバルローカル表現学習・選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-20T02:21:41Z) - ReCoRe: Regularized Contrastive Representation Learning of World Model [21.29132219042405]
対照的な教師なし学習と介入不変正規化器を用いて不変特徴を学習する世界モデルを提案する。
提案手法は,現状のモデルベースおよびモデルフリーのRL法より優れ,iGibsonベンチマークで評価された分布外ナビゲーションタスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-12-14T15:53:07Z) - Window-based Model Averaging Improves Generalization in Heterogeneous
Federated Learning [29.140054600391917]
Federated Learning (FL)は、分散ユーザからグローバルモデルを学び、プライバシを保護することを目的としている。
ウィンドウベースアプローチを用いて,異なるラウンドからグローバルモデルを集約するWIMA(Window-based Model Averaging)を提案する。
本実験は,WIMAの分散シフトに対する堅牢性やクライアントサンプリングの悪さを実証し,よりスムーズで安定した学習傾向を示した。
論文 参考訳(メタデータ) (2023-10-02T17:30:14Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Style-Hallucinated Dual Consistency Learning: A Unified Framework for
Visual Domain Generalization [113.03189252044773]
本稿では,様々な視覚的タスクにおけるドメインシフトを処理するための統合フレームワークであるStyle-HAllucinated Dual consistEncy Learning (SHADE)を提案する。
我々の汎用SHADEは、画像分類、セマンティックセグメンテーション、オブジェクト検出など、様々な視覚認識タスクにおける一般化を著しく向上させることができる。
論文 参考訳(メタデータ) (2022-12-18T11:42:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。