論文の概要: Inner Ensemble Networks: Average Ensemble as an Effective Regularizer
- arxiv url: http://arxiv.org/abs/2006.08305v2
- Date: Fri, 9 Oct 2020 05:59:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 03:06:43.019645
- Title: Inner Ensemble Networks: Average Ensemble as an Effective Regularizer
- Title(参考訳): 内部アンサンブルネットワーク:有効正規化器としての平均アンサンブル
- Authors: Abduallah Mohamed, Muhammed Mohaimin Sadiq, Ehab AlBadawy, Mohamed
Elhoseiny, Christian Claudel
- Abstract要約: 内部アンサンブルネットワーク(IEN)は、モデル複雑性を増大させることなく、ニューラルネットワーク自体内の分散を減少させる。
IENは、トレーニングフェーズ中にアンサンブルパラメータを使用して、ネットワークのばらつきを低減する。
- 参考スコア(独自算出の注目度): 20.33062212014075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Inner Ensemble Networks (IENs) which reduce the variance within
the neural network itself without an increase in the model complexity. IENs
utilize ensemble parameters during the training phase to reduce the network
variance. While in the testing phase, these parameters are removed without a
change in the enhanced performance. IENs reduce the variance of an ordinary
deep model by a factor of $1/m^{L-1}$, where $m$ is the number of inner
ensembles and $L$ is the depth of the model. Also, we show empirically and
theoretically that IENs lead to a greater variance reduction in comparison with
other similar approaches such as dropout and maxout. Our results show a
decrease of error rates between 1.7\% and 17.3\% in comparison with an ordinary
deep model. We also show that IEN was preferred by Neural Architecture Search
(NAS) methods over prior approaches. Code is available at
https://github.com/abduallahmohamed/inner_ensemble_nets.
- Abstract(参考訳): モデル複雑性を増大させることなく、ニューラルネットワーク自体内の分散を低減できる内部アンサンブルネットワーク(IEN)を導入する。
iensはトレーニング段階でアンサンブルパラメータを使用してネットワーク分散を低減している。
テストフェーズでは、これらのパラメータは強化されたパフォーマンスを変更することなく削除される。
IENは、通常の深度モデルの分散を1/m^{L-1}$の係数で減らし、$m$は内部アンサンブルの数、$L$はモデルの深さである。
また,IENは,落差や最大値といった他の類似のアプローチと比較して,より分散低減につながることを実証的,理論的に示す。
その結果、通常の深層モデルと比較して誤差率が1.7\%から17.3\%に減少した。
また,従来のアプローチよりもニューラルネットワーク検索 (nas) 法の方が ien が好まれていた。
コードはhttps://github.com/abduallahmohamed/inner_ensemble_netsで入手できる。
関連論文リスト
- Harmony in Diversity: Merging Neural Networks with Canonical Correlation Analysis [17.989809995141044]
相関解析に基づくCCAマージを提案する。
2モデル以上のモデルがマージされた場合、CCAは過去の方法よりもはるかにうまく機能することを示す。
論文 参考訳(メタデータ) (2024-07-07T14:21:04Z) - Scaling Laws in Linear Regression: Compute, Parameters, and Data [86.48154162485712]
無限次元線形回帰セットアップにおけるスケーリング法則の理論について検討する。
テストエラーの再現可能な部分は$Theta(-(a-1) + N-(a-1)/a)$であることを示す。
我々の理論は経験的ニューラルスケーリング法則と一致し、数値シミュレーションによって検証される。
論文 参考訳(メタデータ) (2024-06-12T17:53:29Z) - Matching the Statistical Query Lower Bound for k-sparse Parity Problems with Stochastic Gradient Descent [83.85536329832722]
勾配勾配降下(SGD)は,$d$次元ハイパーキューブ上の$k$パリティ問題を効率的に解くことができることを示す。
次に、SGDでトレーニングされたニューラルネットワークがどのようにして、小さな統計的エラーで$k$-parityの問題を解決するかを実証する。
論文 参考訳(メタデータ) (2024-04-18T17:57:53Z) - On the Convergence of Federated Averaging under Partial Participation for Over-parameterized Neural Networks [13.2844023993979]
フェデレートラーニング(FL)は、ローカルデータを共有せずに複数のクライアントから機械学習モデルを協調的に作成するための分散パラダイムである。
本稿では,FedAvgが世界規模で世界規模で収束していることを示す。
論文 参考訳(メタデータ) (2023-10-09T07:56:56Z) - More Communication Does Not Result in Smaller Generalization Error in
Federated Learning [9.00236182523638]
フェデレーテッド・ラーニング・セッティングにおける統計的学習モデルの一般化誤差について検討する。
モデル集約の多重(mathbb N*$の$R)ラウンドについて検討し、最終的な集約モデルの一般化誤差に対する$R$の効果について検討する。
論文 参考訳(メタデータ) (2023-04-24T15:56:11Z) - The Onset of Variance-Limited Behavior for Networks in the Lazy and Rich
Regimes [75.59720049837459]
無限幅挙動からこの分散制限状態への遷移をサンプルサイズ$P$とネットワーク幅$N$の関数として検討する。
有限サイズ効果は、ReLUネットワークによる回帰のために、$P* sim sqrtN$の順序で非常に小さなデータセットに関係があることが分かる。
論文 参考訳(メタデータ) (2022-12-23T04:48:04Z) - Bounding the Width of Neural Networks via Coupled Initialization -- A
Worst Case Analysis [121.9821494461427]
2層ReLUネットワークに必要なニューロン数を著しく削減する方法を示す。
また、事前の作業を改善するための新しい下位境界を証明し、ある仮定の下では、最善を尽くすことができることを証明します。
論文 参考訳(メタデータ) (2022-06-26T06:51:31Z) - Model Architecture Adaption for Bayesian Neural Networks [9.978961706999833]
我々はBNNを精度と不確実性の両方に最適化する新しいネットワークアーキテクチャサーチ(NAS)を示す。
我々の実験では,探索されたモデルでは,最先端(ディープアンサンブル)と比較して,不確実性と精度が比較できる。
論文 参考訳(メタデータ) (2022-02-09T10:58:50Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Model-Based Multi-Agent RL in Zero-Sum Markov Games with Near-Optimal
Sample Complexity [67.02490430380415]
モデルに基づくMARLは、Nash平衡値(NE)を求めるために$tilde O(|S||B|(gamma)-3epsilon-2)$のサンプル複雑性を実現する。
また、アルゴリズムが報酬に依存しない場合、そのようなサンプル境界は最小値(対数因子まで)であり、アルゴリズムは報酬知識のない遷移サンプルを問合せする。
論文 参考訳(メタデータ) (2020-07-15T03:25:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。