論文の概要: Informative Neural Ensemble Kalman Learning
- arxiv url: http://arxiv.org/abs/2008.09915v1
- Date: Sat, 22 Aug 2020 21:30:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 07:55:06.606681
- Title: Informative Neural Ensemble Kalman Learning
- Title(参考訳): 情報型ニューラルアンサンブルカルマン学習
- Authors: Margaret Trautner and Gabriel Margolis and Sai Ravela
- Abstract要約: Informative Ensemble Kalman Learningを提案する。これは、バックプロパゲーションを適応的なEnsemble Kalmanフィルタに置き換える。
特に、Lorenz-63システムのシミュレーションから学習すると、効果的に学習された構造が力学方程式を回復することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In stochastic systems, informative approaches select key measurement or
decision variables that maximize information gain to enhance the efficacy of
model-related inferences. Neural Learning also embodies stochastic dynamics,
but informative Learning is less developed. Here, we propose Informative
Ensemble Kalman Learning, which replaces backpropagation with an adaptive
Ensemble Kalman Filter to quantify uncertainty and enables maximizing
information gain during Learning. After demonstrating Ensemble Kalman
Learning's competitive performance on standard datasets, we apply the
informative approach to neural structure learning. In particular, we show that
when trained from the Lorenz-63 system's simulations, the efficaciously learned
structure recovers the dynamical equations. To the best of our knowledge,
Informative Ensemble Kalman Learning is new. Results suggest that this approach
to optimized Learning is promising.
- Abstract(参考訳): 確率的システムにおいて、情報的アプローチは、情報ゲインを最大化し、モデル関連推論の有効性を高めるキー測定または決定変数を選択する。
ニューラルネットワークもまた確率力学を具現化するが、情報学習はあまり発達していない。
本稿では,バックプロパゲーションを適応型アンサンブルカルマンフィルタで置き換え,不確かさを定量化し,学習中に情報ゲインを最大化する情報アンサンブルカルマン学習を提案する。
標準データセットにおけるkalman learningの競争力を実証した結果,神経構造学習にインフォメーションアプローチを適用した。
特に、Lorenz-63システムのシミュレーションから学習すると、効果的に学習された構造が力学方程式を回復することを示す。
私たちの知る限りでは、Informative Ensemble Kalman Learningは新しいものです。
結果は、最適化された学習へのこのアプローチは有望であることを示唆している。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Tensor Decompositions Meet Control Theory: Learning General Mixtures of
Linear Dynamical Systems [19.47235707806519]
テンソル分解に基づく線形力学系の混合を学習するための新しいアプローチを提案する。
このアルゴリズムは, 成分の分離条件が強くないまま成功し, 軌道のベイズ最適クラスタリングと競合することができる。
論文 参考訳(メタデータ) (2023-07-13T03:00:01Z) - Towards Scalable Adaptive Learning with Graph Neural Networks and
Reinforcement Learning [0.0]
学習経路のパーソナライズに関する問題に対して,フレキシブルでスケーラブルなアプローチを導入する。
我々のモデルはグラフニューラルネットワークに基づく逐次レコメンデーションシステムである。
以上の結果から,小規模データ体制における適切なレコメンデーションを学習できることが示唆された。
論文 参考訳(メタデータ) (2023-05-10T18:16:04Z) - SRIL: Selective Regularization for Class-Incremental Learning [5.810252620242912]
クラスインクリメンタルラーニングは、この課題を克服するために、可塑性と安定性のバランスをとる統合モデルを作成することを目的としている。
本稿では,従来の知識を維持しつつ,新たな知識を受け入れる選択正規化手法を提案する。
CIFAR-100, ImageNet-Subset, ImageNet-Full を用いて提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2023-05-09T05:04:35Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - Meta-learning using privileged information for dynamics [66.32254395574994]
Neural ODE Processモデルを拡張して、Learning Using Privileged Information設定内の追加情報を使用します。
シミュレーション動的タスクの精度とキャリブレーションを向上した実験により拡張性を検証する。
論文 参考訳(メタデータ) (2021-04-29T12:18:02Z) - Derivative-Free Reinforcement Learning: A Review [11.568151821073952]
強化学習とは、未知の環境で最高のシーケンシャルな決定を行うエージェントモデルを学習することである。
一方、微分自由最適化は洗練された問題を解くことができる。
本稿では, パラメータ更新, モデル選択, 探索, 並列/分散手法などの側面において, 微分自由強化学習の手法を概説する。
論文 参考訳(メタデータ) (2021-02-10T19:29:22Z) - Information Theoretic Meta Learning with Gaussian Processes [74.54485310507336]
情報理論の概念,すなわち相互情報と情報のボトルネックを用いてメタ学習を定式化する。
相互情報に対する変分近似を用いることで、メタ学習のための汎用的かつトラクタブルな枠組みを導出する。
論文 参考訳(メタデータ) (2020-09-07T16:47:30Z) - Deep Reinforcement Learning for Adaptive Learning Systems [4.8685842576962095]
学習者の潜在特性に基づいて,個別化学習計画の探索方法の問題点を定式化する。
最適な学習ポリシーを効果的に見つけることができるモデルフリーの深層強化学習アルゴリズムを適用した。
また,ニューラルネットワークを用いて学習者の学習過程をエミュレートする遷移モデル推定器を開発した。
論文 参考訳(メタデータ) (2020-04-17T18:04:03Z) - Guided Variational Autoencoder for Disentanglement Learning [79.02010588207416]
本稿では,潜在表現非絡み合い学習を行うことで,制御可能な生成モデルを学習できるアルゴリズム,Guided-VAEを提案する。
我々は、ガイド-VAEにおける教師なし戦略と教師なし戦略を設計し、バニラVAE上でのモデリングと制御能力の強化を観察する。
論文 参考訳(メタデータ) (2020-04-02T20:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。