論文の概要: Faster Convergence in Deep-Predictive-Coding Networks to Learn Deeper
Representations
- arxiv url: http://arxiv.org/abs/2101.06848v2
- Date: Fri, 5 Feb 2021 07:03:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 18:19:22.007912
- Title: Faster Convergence in Deep-Predictive-Coding Networks to Learn Deeper
Representations
- Title(参考訳): 深層予測符号化ネットワークの高速収束による表現の深層化
- Authors: Isaac J. Sledge and Jose C. Principe
- Abstract要約: DPCN(Deep-Predictive-Coding Network)は、フィードフォワードとフィードバック接続に依存する階層的な生成モデルである。
DPCNの重要な要素は、動的モデルのスパース状態を明らかにする前向きの推論手順である。
我々は,加速近位勾配に基づく実験的および理論的収束性の向上した最適化戦略を提案する。
- 参考スコア(独自算出の注目度): 12.716429755564821
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep-predictive-coding networks (DPCNs) are hierarchical, generative models
that rely on feed-forward and feed-back connections to modulate latent feature
representations of stimuli in a dynamic and context-sensitive manner. A crucial
element of DPCNs is a forward-backward inference procedure to uncover sparse
states of a dynamic model, which are used for invariant feature extraction.
However, this inference and the corresponding backwards network parameter
updating are major computational bottlenecks. They severely limit the network
depths that can be reasonably implemented and easily trained. We therefore
propose an optimization strategy, with better empirical and theoretical
convergence, based on accelerated proximal gradients.
We demonstrate that the ability to construct deeper DPCNs leads to receptive
fields that capture well the entire notions of objects on which the networks
are trained. This improves the feature representations. It yields completely
unsupervised classifiers that surpass convolutional and convolutional-recurrent
autoencoders and are on par with convolutional networks trained in a supervised
manner. This is despite the DPCNs having orders of magnitude fewer parameters.
- Abstract(参考訳): 深部予測符号化ネットワーク(Deep-predictive-coding network, DPCN)は、動的かつ文脈に敏感な刺激の潜在特徴表現を変調するために、フィードフォワードおよびフィードバック接続に依存する階層モデルである。
DPCNの重要な要素は、不変特徴抽出に使用される動的モデルのスパース状態を明らかにする前向き推論手順である。
しかし、この推論と対応する後方ネットワークパラメータの更新は、主要な計算ボトルネックである。
合理的に実装され、容易に訓練できるネットワーク深さを厳しく制限する。
そこで我々は,加速度的近位勾配に基づく,経験的および理論的収束性が向上した最適化戦略を提案する。
我々は、より深いdpcnを構築する能力が、ネットワークが訓練されるオブジェクトの概念全体をうまく捉える受容的フィールドをもたらすことを実証する。
これにより特徴表現が改善される。
完全教師なしの分類器は、畳み込みと畳み込みを繰り返すオートエンコーダを超え、教師付き方法で訓練された畳み込みネットワークと同等である。
これはdpcnが桁違いに少ないパラメータを持つにもかかわらずである。
関連論文リスト
- Towards Efficient Deep Spiking Neural Networks Construction with Spiking Activity based Pruning [17.454100169491497]
本稿では,Spking Channel Activity-based (SCA) network pruning frameworkという,畳み込みカーネルの動作レベルに基づく構造化プルーニング手法を提案する。
本手法は, 学習中の畳み込みカーネルの切断・再生によりネットワーク構造を動的に調整し, 現在の目標タスクへの適応性を高める。
論文 参考訳(メタデータ) (2024-06-03T07:44:37Z) - Leveraging Low-Rank and Sparse Recurrent Connectivity for Robust
Closed-Loop Control [63.310780486820796]
繰り返し接続のパラメータ化が閉ループ設定のロバスト性にどのように影響するかを示す。
パラメータが少ないクローズドフォーム連続時間ニューラルネットワーク(CfCs)は、フルランクで完全に接続されたニューラルネットワークよりも優れています。
論文 参考訳(メタデータ) (2023-10-05T21:44:18Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - SIRe-Networks: Skip Connections over Interlaced Multi-Task Learning and
Residual Connections for Structure Preserving Object Classification [28.02302915971059]
本稿では、オブジェクト分類タスクにおける消失勾配を低減するために、SIReを定義したインターレース型マルチタスク学習戦略を提案する。
提案手法は、自動エンコーダを介して入力画像構造を保存することにより、畳み込みニューラルネットワーク(CNN)を直接改善する。
提案手法を検証するため、SIRe戦略を介して単純なCNNと有名なネットワークの様々な実装を拡張し、CIFAR100データセットで広範囲にテストする。
論文 参考訳(メタデータ) (2021-10-06T13:54:49Z) - Latent Code-Based Fusion: A Volterra Neural Network Approach [21.25021807184103]
最近導入されたVolterra Neural Networks(VNN)を用いた深層構造エンコーダを提案する。
提案手法は,cnnベースのオートエンコーダに対して,より頑健な分類性能を持つサンプル複雑性を示す。
論文 参考訳(メタデータ) (2021-04-10T18:29:01Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - A Differential Game Theoretic Neural Optimizer for Training Residual
Networks [29.82841891919951]
本稿では、残差接続と畳み込み層の両方を受け入れる一般化微分動的プログラミング(DDP)ニューラルアーキテクチャを提案する。
得られた最適制御表現は、トレーニング残余ネットワークを、状態拡張システム上での協調的軌道最適化と解釈できるゲーム論的視点を許容する。
論文 参考訳(メタデータ) (2020-07-17T10:19:17Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。