論文の概要: Sparsely Changing Latent States for Prediction and Planning in Partially
Observable Domains
- arxiv url: http://arxiv.org/abs/2110.15949v1
- Date: Fri, 29 Oct 2021 17:50:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-01 14:24:52.560055
- Title: Sparsely Changing Latent States for Prediction and Planning in Partially
Observable Domains
- Title(参考訳): 部分可観測領域における予測と計画のための潜在状態の緩やかな変化
- Authors: Christian Gumbsch and Martin V. Butz and Georg Martius
- Abstract要約: GateL0RDは、安定した、わずかに変化する潜伏状態を維持するために誘導バイアスを組み込んだ、新しいリカレントアーキテクチャである。
GateL0RDは、様々な部分観測可能な予測および制御タスクにおいて、最先端のRNNと競合したり、性能を向上することができることを実証する。
- 参考スコア(独自算出の注目度): 11.371889042789219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A common approach to prediction and planning in partially observable domains
is to use recurrent neural networks (RNNs), which ideally develop and maintain
a latent memory about hidden, task-relevant factors. We hypothesize that many
of these hidden factors in the physical world are constant over time, changing
only sparsely. Accordingly, we propose Gated $L_0$ Regularized Dynamics
(GateL0RD), a novel recurrent architecture that incorporates the inductive bias
to maintain stable, sparsely changing latent states. The bias is implemented by
means of a novel internal gating function and a penalty on the $L_0$ norm of
latent state changes. We demonstrate that GateL0RD can compete with or
outperform state-of-the-art RNNs in a variety of partially observable
prediction and control tasks. GateL0RD tends to encode the underlying
generative factors of the environment, ignores spurious temporal dependencies,
and generalizes better, improving sampling efficiency and prediction accuracy
as well as behavior in model-based planning and reinforcement learning tasks.
Moreover, we show that the developing latent states can be easily interpreted,
which is a step towards better explainability in RNNs.
- Abstract(参考訳): 部分的に観測可能な領域における予測と計画への一般的なアプローチは、隠れたタスク関連要素に関する潜在メモリを理想的に開発し維持するrecurrent neural networks(rnn)を使用することである。
我々は、これらの物理的世界の隠れた要因の多くは時間とともに一定であり、わずかな変化しかできないと仮定する。
そこで我々は,インダクティブバイアスを組み込んだ新しいリカレントアーキテクチャであるgated $l_0$ regularized dynamics (gatel0rd)を提案する。
バイアスは、新しい内部ゲーティング関数と潜在状態変化の$l_0$ノルムに対するペナルティによって実装される。
GateL0RDは、様々な観測可能な予測および制御タスクにおいて、最先端のRNNと競合したり、性能を向上することができることを示す。
GateL0RDは、環境の根底にある生成因子を符号化し、急激な時間依存性を無視し、より一般化し、サンプリング効率と予測精度を改善し、モデルベース計画および強化学習タスクの振る舞いを改善する。
さらに,発展途上状態を容易に解釈できることが示され,RNNにおける説明可能性の向上への一歩となる。
関連論文リスト
- Deep neural networks for choice analysis: Enhancing behavioral regularity with gradient regularization [9.07183008265166]
本研究では, 需要関数の単調性を評価するための新しい指標として, 強く, 弱い行動規則性を提案する。
さらに、6つの勾配正規化器による制約付き最適化フレームワークを設計し、DNNの行動規則性を高める。
提案するフレームワークは、TasteNetsのような他のNNベースの選択モデルに適用できる。
論文 参考訳(メタデータ) (2024-04-23T03:01:09Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Stability and Generalization Analysis of Gradient Methods for Shallow
Neural Networks [59.142826407441106]
本稿では,アルゴリズム安定性の概念を活用して,浅層ニューラルネットワーク(SNN)の一般化挙動について検討する。
我々は、SNNを訓練するために勾配降下(GD)と勾配降下(SGD)を考慮する。
論文 参考訳(メタデータ) (2022-09-19T18:48:00Z) - Domain-Adjusted Regression or: ERM May Already Learn Features Sufficient
for Out-of-Distribution Generalization [52.7137956951533]
既存の特徴から予測器を学習するためのよりシンプルな手法を考案することは、将来の研究にとって有望な方向である、と我々は主張する。
本稿では,線形予測器を学習するための凸目標である領域調整回帰(DARE)を紹介する。
自然モデルの下では、DARE解が制限されたテスト分布の集合に対する最小最適予測器であることを証明する。
論文 参考訳(メタデータ) (2022-02-14T16:42:16Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Recurrent Neural Networks for Learning Long-term Temporal Dependencies
with Reanalysis of Time Scale Representation [16.32068729107421]
時間的表現としての忘れ門の解釈は、状態に対する損失の勾配が時間とともに指数関数的に減少するときに有効であると主張する。
本稿では,従来のモデルよりも長い時間スケールを表現できる新しいRNNの構築手法を提案する。
論文 参考訳(メタデータ) (2021-11-05T06:22:58Z) - Interpretable Additive Recurrent Neural Networks For Multivariate
Clinical Time Series [4.125698836261585]
本稿では,モデル内の変数間の関係を加法的に強制することで,モデルの複雑性と精度のバランスをとるInterpretable-RNN(I-RNN)を提案する。
I-RNNは、時間内に不均一にサンプリングされ、非同期に取得され、データが欠落している臨床時系列の特徴を特に捉えている。
本研究は,院内死亡率予測のためのPhysoronet 2012 ChallengeデータセットのI-RNNモデルと,集中治療室における血行動態の介入を予測するリアルな臨床診断支援タスクについて評価する。
論文 参考訳(メタデータ) (2021-09-15T22:30:19Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - Towards Understanding the Regularization of Adversarial Robustness on
Neural Networks [46.54437309608066]
正規化の観点から, 劣化について検討する。
私たちは、信頼性の低いソリューションに対してNNを正規化/バイアス化することで、ARが実現されていることに気付きました。
論文 参考訳(メタデータ) (2020-11-15T08:32:09Z) - Stochastic Graph Neural Networks [123.39024384275054]
グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
論文 参考訳(メタデータ) (2020-06-04T08:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。