論文の概要: Improving Gradient Flow with Unrolled Highway Expectation Maximization
- arxiv url: http://arxiv.org/abs/2012.04926v1
- Date: Wed, 9 Dec 2020 09:11:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 02:07:56.058330
- Title: Improving Gradient Flow with Unrolled Highway Expectation Maximization
- Title(参考訳): unrolled highway expectation maximizationによる勾配流の改善
- Authors: Chonghyuk Song, Eunseok Kim, Inwook Shim
- Abstract要約: 本稿では,一般化EM (GEM) アルゴリズムの非順序反復からなるハイウェイ予測最大化ネットワーク (HEMNet) を提案する。
HEMNetは、スケールしたスキップ接続、あるいはハイウェイを、非ロールアーキテクチャの深さに沿って備えており、バックプロパゲーション時の勾配フローが改善されている。
複数のセマンティクスセグメンテーションベンチマークにおいて有意な改善を達成し,hemnetが勾配減衰を効果的に緩和することを示す。
- 参考スコア(独自算出の注目度): 0.9539495585692008
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integrating model-based machine learning methods into deep neural
architectures allows one to leverage both the expressive power of deep neural
nets and the ability of model-based methods to incorporate domain-specific
knowledge. In particular, many works have employed the expectation maximization
(EM) algorithm in the form of an unrolled layer-wise structure that is jointly
trained with a backbone neural network. However, it is difficult to
discriminatively train the backbone network by backpropagating through the EM
iterations as they are prone to the vanishing gradient problem. To address this
issue, we propose Highway Expectation Maximization Networks (HEMNet), which is
comprised of unrolled iterations of the generalized EM (GEM) algorithm based on
the Newton-Rahpson method. HEMNet features scaled skip connections, or
highways, along the depths of the unrolled architecture, resulting in improved
gradient flow during backpropagation while incurring negligible additional
computation and memory costs compared to standard unrolled EM. Furthermore,
HEMNet preserves the underlying EM procedure, thereby fully retaining the
convergence properties of the original EM algorithm. We achieve significant
improvement in performance on several semantic segmentation benchmarks and
empirically show that HEMNet effectively alleviates gradient decay.
- Abstract(参考訳): モデルベースの機械学習手法をディープニューラルネットワークアーキテクチャに統合することで、ディープニューラルネットワークの表現力と、モデルベースの方法がドメイン固有の知識を組み込む能力の両方を活用できる。
特に、多くの研究は期待最大化(EM)アルゴリズムを、バックボーンニューラルネットワークと共同でトレーニングされた、無転層構造として採用している。
しかし、消失する勾配問題に起因したEM繰り返しをバックプロパゲートすることで、バックボーンネットワークを識別的に訓練することは困難である。
この問題に対処するために,Newton-Rahpson法に基づく一般化EM(GEM)アルゴリズムのアンロールイテレーションからなるハイウェイ予測最大化ネットワーク(HEMNet)を提案する。
HEMNetは、非ロールアーキテクチャの深さに沿って、スケールされたスキップ接続またはハイウェイを特徴としているため、バックプロパゲーション時の勾配フローが改善され、標準の非ロールEMと比較して、無視できる計算量とメモリコストが増大する。
さらに、HEMNetは基礎となるEMプロシージャを保持し、元のEMアルゴリズムの収束特性を完全に保持する。
複数のセマンティクスセグメンテーションベンチマークで性能が大幅に向上し,ヘムネットが勾配減衰を効果的に緩和することを示す。
関連論文リスト
- Adaptive Anomaly Detection in Network Flows with Low-Rank Tensor Decompositions and Deep Unrolling [9.20186865054847]
異常検出(AD)は、将来の通信システムのレジリエンスを確保するための重要な要素として、ますます認識されている。
この研究は、不完全測定を用いたネットワークフローにおけるADについて考察する。
本稿では,正規化モデル適合性に基づくブロック帰属凸近似アルゴリズムを提案する。
ベイズ的アプローチに触発されて、我々はモデルアーキテクチャを拡張し、フローごとのオンライン適応とステップごとの統計処理を行う。
論文 参考訳(メタデータ) (2024-09-17T19:59:57Z) - Soft Merging: A Flexible and Robust Soft Model Merging Approach for
Enhanced Neural Network Performance [6.599368083393398]
グラディエント(SGD)はしばしばモデル性能を改善するために局所最適化を収束させることに制限される。
エム・ソフト・マージング法は、望ましくない結果で得られた局所最適モデルを最小化する。
実験は、統合されたネットワークの有効性を裏付けるものである。
論文 参考訳(メタデータ) (2023-09-21T17:07:31Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - A Dynamical View on Optimization Algorithms of Overparameterized Neural
Networks [23.038631072178735]
我々は、一般的に使用される最適化アルゴリズムの幅広いクラスについて考察する。
その結果、ニューラルネットワークの収束挙動を利用することができる。
このアプローチは他の最適化アルゴリズムやネットワーク理論にも拡張できると考えています。
論文 参考訳(メタデータ) (2020-10-25T17:10:22Z) - Deep unfolding of the weighted MMSE beamforming algorithm [9.518010235273783]
MISOダウンリンクチャネルに対するWMMSEアルゴリズムに対する深部展開の新たな適用法を提案する。
深層展開は、自然に専門家の知識を取り入れており、即時かつしっかりとしたアーキテクチャ選択の利点、トレーニング可能なパラメータの少ないこと、説明可能性の向上がある。
シミュレーションにより、ほとんどの設定において、展開されたWMMSEは、一定回数の反復に対して、WMMSEよりも優れているか、等しく動作することを示す。
論文 参考訳(メタデータ) (2020-06-15T14:51:20Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。