論文の概要: Predictive coding, precision and natural gradients
- arxiv url: http://arxiv.org/abs/2111.06942v1
- Date: Fri, 12 Nov 2021 21:05:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 04:37:31.950871
- Title: Predictive coding, precision and natural gradients
- Title(参考訳): 予測符号化、精度および自然勾配
- Authors: Andre Ofner, Raihan Kabir Ratul, Suhita Ghosh, Sebastian Stober
- Abstract要約: 学習精度の高い階層型予測符号化ネットワークは,教師あり学習課題や教師なし学習課題を解くことができることを示す。
イメージ入力の教師なし自動符号化に適用すると、決定論的ネットワークは階層的に整理され、非絡み合った埋め込みを生成する。
- 参考スコア(独自算出の注目度): 2.1601966913620325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is an increasing convergence between biologically plausible
computational models of inference and learning with local update rules and the
global gradient-based optimization of neural network models employed in machine
learning. One particularly exciting connection is the correspondence between
the locally informed optimization in predictive coding networks and the error
backpropagation algorithm that is used to train state-of-the-art deep
artificial neural networks. Here we focus on the related, but still largely
under-explored connection between precision weighting in predictive coding
networks and the Natural Gradient Descent algorithm for deep neural networks.
Precision-weighted predictive coding is an interesting candidate for scaling up
uncertainty-aware optimization -- particularly for models with large parameter
spaces -- due to its distributed nature of the optimization process and the
underlying local approximation of the Fisher information metric, the adaptive
learning rate that is central to Natural Gradient Descent. Here, we show that
hierarchical predictive coding networks with learnable precision indeed are
able to solve various supervised and unsupervised learning tasks with
performance comparable to global backpropagation with natural gradients and
outperform their classical gradient descent counterpart on tasks where high
amounts of noise are embedded in data or label inputs. When applied to
unsupervised auto-encoding of image inputs, the deterministic network produces
hierarchically organized and disentangled embeddings, hinting at the close
connections between predictive coding and hierarchical variational inference.
- Abstract(参考訳): 生物学的に妥当な推論と局所的な更新規則による学習の計算モデルと、機械学習で使用されるニューラルネットワークモデルのグローバル勾配に基づく最適化の間には、収束が増している。
特にエキサイティングな接続は、予測符号化ネットワークにおける局所的な情報伝達最適化と、最先端の深層ニューラルネットワークのトレーニングに使用されるエラーバックプロパゲーションアルゴリズムとの対応である。
ここでは,予測符号化ネットワークの精度重み付けと深層ニューラルネットワークの自然勾配降下アルゴリズムとの関連性に注目する。
精度重み付き予測符号化は、最適化プロセスの分散的性質とフィッシャー情報メトリクスの基底となる局所近似、すなわち自然勾配降下の中心となる適応学習率のため、不確実性対応最適化(特に大きなパラメータ空間を持つモデル)をスケールアップする興味深い候補である。
ここでは,学習可能な精度を持つ階層型予測符号化ネットワークが,自然勾配のグローバルバックプロパゲーションに匹敵する性能で,教師付きおよび教師なしの学習タスクを解くことができ,大量のノイズがデータやラベル入力に埋め込まれたタスクに対して,従来の勾配勾配よりも優れていることを示す。
画像入力の教師なしオートエンコーディングに適用すると、決定論的ネットワークは階層的に構造化され、乱れた埋め込みを生成し、予測符号と階層的変分推論の間の密接な関係を示唆する。
関連論文リスト
- Adaptive Class Emergence Training: Enhancing Neural Network Stability and Generalization through Progressive Target Evolution [0.0]
分類問題におけるニューラルネットワークの新しいトレーニング手法を提案する。
我々は、トレーニングプロセスを通して、ヌルベクトルから1ホットの符号化ベクターへのターゲット出力を進化させる。
この段階的な遷移により、ネットワークは分類タスクの複雑さの増大によりスムーズに適応できる。
論文 参考訳(メタデータ) (2024-09-04T03:25:48Z) - Improving Generalization of Deep Neural Networks by Optimum Shifting [33.092571599896814]
本稿では,ニューラルネットワークのパラメータを最小値からフラット値に変化させる,近位シフトと呼ばれる新しい手法を提案する。
本手法は,ニューラルネットワークの入力と出力が固定された場合,ネットワーク内の行列乗算を,未決定線形方程式系として扱うことができることを示す。
論文 参考訳(メタデータ) (2024-05-23T02:31:55Z) - Precision Machine Learning [5.15188009671301]
様々な関数近似法を比較し,パラメータやデータの増加とともにスケールする方法について検討する。
ニューラルネットワークは、しばしば高次元の例において古典的近似法より優れていることが判明した。
我々は,ニューラルネットワークを極端に低損失に訓練する訓練手法を開発した。
論文 参考訳(メタデータ) (2022-10-24T17:58:30Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Rethinking Skip Connection with Layer Normalization in Transformers and
ResNets [49.87919454950763]
スキップ接続は、ディープニューラルネットワークの性能を改善するために広く使われているテクニックである。
本研究では,スキップ接続の有効性におけるスケール要因について検討する。
論文 参考訳(メタデータ) (2021-05-15T11:44:49Z) - Analytically Tractable Inference in Deep Neural Networks [0.0]
Tractable Approximate Inference (TAGI)アルゴリズムは、浅いフルコネクテッドニューラルネットワークのバックプロパゲーションに対する実行可能でスケーラブルな代替手段であることが示された。
従来のディープニューラルネットワークアーキテクチャをトレーニングするために、TAGIがバックプロパゲーションのパフォーマンスとどのように一致するか、または上回るかを実証しています。
論文 参考訳(メタデータ) (2021-03-09T14:51:34Z) - Understanding the Effects of Data Parallelism and Sparsity on Neural
Network Training [126.49572353148262]
ニューラルネットワークトレーニングにおける2つの要因として,データ並列性と疎性について検討する。
有望なメリットにもかかわらず、ニューラルネットワークトレーニングに対する彼らの影響を理解することは、依然として明白である。
論文 参考訳(メタデータ) (2020-03-25T10:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。