論文の概要: Variational Sparse Coding with Learned Thresholding
- arxiv url: http://arxiv.org/abs/2205.03665v1
- Date: Sat, 7 May 2022 14:49:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-15 08:19:46.978953
- Title: Variational Sparse Coding with Learned Thresholding
- Title(参考訳): 学習閾値を用いた変分スパース符号化
- Authors: Kion Fallah and Christopher J. Rozell
- Abstract要約: サンプルをしきい値にすることでスパース分布を学習できる変分スパース符号化の新しい手法を提案する。
まず,線形発生器を訓練し,その性能,統計的効率,勾配推定に優れることを示す。
- 参考スコア(独自算出の注目度): 6.737133300781134
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparse coding strategies have been lauded for their parsimonious
representations of data that leverage low dimensional structure. However,
inference of these codes typically relies on an optimization procedure with
poor computational scaling in high-dimensional problems. For example, sparse
inference in the representations learned in the high-dimensional intermediary
layers of deep neural networks (DNNs) requires an iterative minimization to be
performed at each training step. As such, recent, quick methods in variational
inference have been proposed to infer sparse codes by learning a distribution
over the codes with a DNN. In this work, we propose a new approach to
variational sparse coding that allows us to learn sparse distributions by
thresholding samples, avoiding the use of problematic relaxations. We first
evaluate and analyze our method by training a linear generator, showing that it
has superior performance, statistical efficiency, and gradient estimation
compared to other sparse distributions. We then compare to a standard
variational autoencoder using a DNN generator on the Fashion MNIST and CelebA
datasets
- Abstract(参考訳): スパースコーディング戦略は、低次元構造を利用するデータの控えめな表現で称賛されている。
しかし、これらの符号の推論は通常、高次元問題における計算スケーリングが不十分な最適化手順に依存する。
例えば、ディープニューラルネットワーク(dnn)の高次元中間層で学習される表現におけるスパース推論は、各トレーニングステップで反復最小化を行う必要がある。
そこで,近年,DNN を用いた分散学習により,スパース符号を推定するために,変分推論の高速な手法が提案されている。
そこで本研究では,サンプルをしきい値にすることでスパース分布を学習し,不規則な緩和を回避できる変分スパース符号化手法を提案する。
まず, 線形発生器を訓練し, その性能, 統計的効率, 勾配推定を他のスパース分布と比較して評価し, 解析を行った。
次に、Fashion MNISTおよびCelebAデータセット上のDNNジェネレータを用いた標準変分オートエンコーダと比較する。
関連論文リスト
- Low-rank extended Kalman filtering for online learning of neural
networks from streaming data [71.97861600347959]
非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2023-05-31T03:48:49Z) - Layer-wise Adaptive Step-Sizes for Stochastic First-Order Methods for
Deep Learning [8.173034693197351]
深層学習における一階最適化のための新しい階層ごとの適応的なステップサイズ手順を提案する。
提案手法は,ディープニューラルネットワーク(DNN)におけるヘシアン対角ブロックに含まれる層次曲率情報を用いて,各層に対する適応的なステップサイズ(LR)を算出する。
数値実験により、SGDの運動量とAdamWと、提案した層ごとのステップサイズを組み合わせることで、効率的なLRスケジュールを選択できることが示されている。
論文 参考訳(メタデータ) (2023-05-23T04:12:55Z) - Variational Linearized Laplace Approximation for Bayesian Deep Learning [11.22428369342346]
変分スパースガウス過程(GP)を用いた線形ラプラス近似(LLA)の近似法を提案する。
本手法はGPの2つのRKHSの定式化に基づいており、予測平均として元のDNNの出力を保持する。
効率のよい最適化が可能で、結果としてトレーニングデータセットのサイズのサブ線形トレーニング時間が短縮される。
論文 参考訳(メタデータ) (2023-02-24T10:32:30Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Partitioning sparse deep neural networks for scalable training and
inference [8.282177703075453]
最先端のディープニューラルネットワーク(DNN)には、計算とデータ管理の大幅な要件がある。
スパシフィケーション法とプルーニング法は,DNNの大量の接続を除去するのに有効であることが示されている。
その結果得られたスパースネットワークは、ディープラーニングにおけるトレーニングと推論の計算効率をさらに向上するためのユニークな課題を提示する。
論文 参考訳(メタデータ) (2021-04-23T20:05:52Z) - Consistent Sparse Deep Learning: Theory and Computation [11.24471623055182]
スパース深層学習ネットワーク(DNN)を学習するための頻繁な方法を提案する。
提案手法は大規模ネットワーク圧縮や高次元非線形変数選択に非常に有効である。
論文 参考訳(メタデータ) (2021-02-25T23:31:24Z) - Non-Convex Optimization with Spectral Radius Regularization [17.629499015699704]
深層ニューラルネットワークやその他の機械学習モデルのトレーニング中に平坦な最小値を求める正規化手法を開発した。
これらのミニマはシャープミニマよりも一般化し、モデルが実際の単語テストデータによりよく一般化できるようにします。
論文 参考訳(メタデータ) (2021-02-22T17:39:05Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z) - Bandit Samplers for Training Graph Neural Networks [63.17765191700203]
グラフ畳み込みネットワーク(GCN)の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
これらのサンプリングアルゴリズムは、グラフ注意ネットワーク(GAT)のような固定重みよりも学習重量を含む、より一般的なグラフニューラルネットワーク(GNN)には適用できない。
論文 参考訳(メタデータ) (2020-06-10T12:48:37Z) - Learning Low-rank Deep Neural Networks via Singular Vector Orthogonality
Regularization and Singular Value Sparsification [53.50708351813565]
各ステップにSVDを適用することなく、トレーニング中に低ランクDNNを明示的に達成する最初の方法であるSVDトレーニングを提案する。
SVDトレーニングがDNN層のランクを著しく低減し,同じ精度で計算負荷の低減を実現することを実証的に示す。
論文 参考訳(メタデータ) (2020-04-20T02:40:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。