論文の概要: Variational Density Propagation Continual Learning
- arxiv url: http://arxiv.org/abs/2308.11801v1
- Date: Tue, 22 Aug 2023 21:51:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 16:38:29.448022
- Title: Variational Density Propagation Continual Learning
- Title(参考訳): 変動密度伝播連続学習
- Authors: Christopher Angelini, Nidhal Bouaynaya, and Ghulam Rasool
- Abstract要約: 現実世界にデプロイされるディープニューラルネットワーク(DNN)は、定期的にオフ・オブ・ディストリビューション(OoD)データの対象となっている。
本稿では,ベンチマーク連続学習データセットによってモデル化されたデータ分散ドリフトに適応するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) deployed to the real world are regularly subject
to out-of-distribution (OoD) data, various types of noise, and shifting
conceptual objectives. This paper proposes a framework for adapting to data
distribution drift modeled by benchmark Continual Learning datasets. We develop
and evaluate a method of Continual Learning that leverages uncertainty
quantification from Bayesian Inference to mitigate catastrophic forgetting. We
expand on previous approaches by removing the need for Monte Carlo sampling of
the model weights to sample the predictive distribution. We optimize a
closed-form Evidence Lower Bound (ELBO) objective approximating the predictive
distribution by propagating the first two moments of a distribution, i.e. mean
and covariance, through all network layers. Catastrophic forgetting is
mitigated by using the closed-form ELBO to approximate the Minimum Description
Length (MDL) Principle, inherently penalizing changes in the model likelihood
by minimizing the KL Divergence between the variational posterior for the
current task and the previous task's variational posterior acting as the prior.
Leveraging the approximation of the MDL principle, we aim to initially learn a
sparse variational posterior and then minimize additional model complexity
learned for subsequent tasks. Our approach is evaluated for the task
incremental learning scenario using density propagated versions of
fully-connected and convolutional neural networks across multiple sequential
benchmark datasets with varying task sequence lengths. Ultimately, this
procedure produces a minimally complex network over a series of tasks
mitigating catastrophic forgetting.
- Abstract(参考訳): 現実世界にデプロイされたディープニューラルネットワーク(dnn)は、通常、アウトオブディストリビューション(ood)データ、さまざまなタイプのノイズ、概念目標のシフトを受ける。
本稿では,ベンチマーク連続学習データセットをモデルとしたデータ分散ドリフト適応のためのフレームワークを提案する。
本研究では,ベイズ推定から不確実性定量化を利用した連続学習法を開発し,その評価を行った。
予測分布をサンプリングするためにモデル重みのモンテカルロサンプリングを不要にすることで,従来のアプローチを拡張する。
分布の最初の2つのモーメント,すなわち平均と共分散を全てのネットワーク層を通して伝播することにより,予測分布を近似する,閉形式のエビデンス下界(ELBO)を最適化する。
閉形式ELBOを用いて最小記述長(MDL)の原理を近似することにより破滅的忘れを緩和し、現行タスクの変分後部と前タスクの変分後部とのKLの偏差を最小化してモデル可能性の変化を本質的にペナルティ化する。
MDL法則の近似を応用して、最初はばらつきの後部を学習し、その後タスクで学習したモデル複雑さを最小化する。
タスクシーケンス長の異なる複数の逐次ベンチマークデータセットにまたがる完全接続型および畳み込み型ニューラルネットワークの密度伝達バージョンを用いて,タスクインクリメンタル学習シナリオについて評価した。
最終的に、この手順は破滅的な忘れを緩和する一連のタスクに対して、最小限の複雑なネットワークを生み出す。
関連論文リスト
- Posterior and variational inference for deep neural networks with heavy-tailed weights [0.0]
我々は、ネットワーク重みをランダムにサンプリングする事前分布を持つベイズフレームワークにおいて、ディープニューラルネットワークを考察する。
後部分布は, ほぼ最適のミニマックス収縮速度を達成できることを示す。
また, 実験結果の変分ベイズ版も提供し, 平均場変分近似は, ほぼ最適理論的支援の恩恵を受けていることを示した。
論文 参考訳(メタデータ) (2024-06-05T15:24:20Z) - Enhancing Transfer Learning with Flexible Nonparametric Posterior
Sampling [22.047309973614876]
本稿では、分散シフト問題に対処するフレキシブルな後続サンプリング法である非パラメトリックトランスファーラーニング(NPTL)を提案する。
NPTLは、上流と下流のタスク間の分散シフトを伴うかもしれない伝達学習シナリオに適している。
論文 参考訳(メタデータ) (2024-03-12T03:26:58Z) - SPDE priors for uncertainty quantification of end-to-end neural data
assimilation schemes [4.213142548113385]
ディープラーニングコミュニティの最近の進歩は、データ同化変動フレームワークを組み込んだニューラルネットワークとしてこの問題に対処する上で有効である。
本研究では、SPDEに基づくプロセスから、空間と時間の両方で非定常共分散を扱える事前モデルを推定する。
我々のニューラル変分法は、両方の状態SPDEパラメトリゼーションによる拡張状態定式化を組み込むように修正されている。
論文 参考訳(メタデータ) (2024-02-02T19:18:12Z) - Out of the Ordinary: Spectrally Adapting Regression for Covariate Shift [12.770658031721435]
本稿では,学習前のニューラル回帰モデルの最後の層の重みを適応させて,異なる分布から得られる入力データを改善する手法を提案する。
本稿では,この軽量なスペクトル適応手法により,合成および実世界のデータセットの分布外性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-29T04:15:58Z) - Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Ensemble Modeling for Multimodal Visual Action Recognition [50.38638300332429]
マルチモーダル動作認識のためのアンサンブルモデリング手法を提案する。
我々は,MECCANO[21]データセットの長期分布を処理するために,焦点損失の変種を用いて,個別のモダリティモデルを個別に訓練する。
論文 参考訳(メタデータ) (2023-08-10T08:43:20Z) - Adversarial Adaptive Sampling: Unify PINN and Optimal Transport for the Approximation of PDEs [2.526490864645154]
ニューラルネットワークモデルにより与えられた近似解とトレーニングセットのランダムサンプルを同時に最適化する新しいminmax式を提案する。
鍵となる考え方は、深層生成モデルを用いてトレーニングセット内のランダムサンプルを調整し、近似されたPDE解によって誘導される残差が滑らかなプロファイルを維持することである。
論文 参考訳(メタデータ) (2023-05-30T02:59:18Z) - Variational Laplace Autoencoders [53.08170674326728]
変分オートエンコーダは、遅延変数の後部を近似するために、償却推論モデルを用いる。
完全分解ガウス仮定の限定的後部表現性に対処する新しい手法を提案する。
また、深部生成モデルのトレーニングのための変分ラプラスオートエンコーダ(VLAE)という一般的なフレームワークも提示する。
論文 参考訳(メタデータ) (2022-11-30T18:59:27Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。