論文の概要: United We Stand: Using Epoch-wise Agreement of Ensembles to Combat
Overfit
- arxiv url: http://arxiv.org/abs/2310.11077v1
- Date: Tue, 17 Oct 2023 08:51:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 17:02:50.281545
- Title: United We Stand: Using Epoch-wise Agreement of Ensembles to Combat
Overfit
- Title(参考訳): united we stand: オーバーフィットと戦うためのアンサンブルの画期的な合意
- Authors: Uri Stern, Daniel Shwartz, Daphna Weinshall
- Abstract要約: オーバーフィットに対して非常に有効である新しいディープネットワークアンサンブル分類器を提案する。
私たちの方法は実装が容易で、どんなトレーニングスキームやアーキテクチャにも統合できます。
- 参考スコア(独自算出の注目度): 7.627299398469962
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks have become the method of choice for solving many image
classification tasks, largely because they can fit very complex functions
defined over raw images. The downside of such powerful learners is the danger
of overfitting the training set, leading to poor generalization, which is
usually avoided by regularization and "early stopping" of the training. In this
paper, we propose a new deep network ensemble classifier that is very effective
against overfit. We begin with the theoretical analysis of a regression model,
whose predictions - that the variance among classifiers increases when overfit
occurs - is demonstrated empirically in deep networks in common use. Guided by
these results, we construct a new ensemble-based prediction method designed to
combat overfit, where the prediction is determined by the most consensual
prediction throughout the training. On multiple image and text classification
datasets, we show that when regular ensembles suffer from overfit, our method
eliminates the harmful reduction in generalization due to overfit, and often
even surpasses the performance obtained by early stopping. Our method is easy
to implement, and can be integrated with any training scheme and architecture,
without additional prior knowledge beyond the training set. Accordingly, it is
a practical and useful tool to overcome overfit.
- Abstract(参考訳): ディープニューラルネットワークは多くの画像分類タスクの解法となっているが、それは主に生画像上で定義された非常に複雑な関数に適合できるためである。
このような強力な学習者の欠点は、トレーニングセットを過度に適合させることの危険性であり、一般的には正規化や「早期停止」によって避けられるような一般化の欠如につながる。
本稿では,オーバーフィットに対して非常に効果的な深層ネットワークアンサンブル分類器を提案する。
まずは回帰モデルの理論的解析から始まり、その予測 - 過剰適合が発生すると分類器間のばらつきが増加する - は、一般的なディープネットワークで実証的に実証される。
これらの結果に基づいて,オーバーフィットと闘うための新たなアンサンブルベースの予測手法を構築し,トレーニング全体を通して最も合意的な予測によって予測が決定される。
複数の画像およびテキスト分類データセットにおいて、正規アンサンブルが過剰適合に苦しむ場合、過剰適合による一般化の有害な低減を排除し、早期停止によって得られる性能を超越することを示す。
本手法は実装が容易で,トレーニングセット以上の事前知識を必要とせず,任意のトレーニングスキームやアーキテクチャに統合することができる。
したがって、オーバーフィットを克服するための実用的かつ有用なツールである。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Relearning Forgotten Knowledge: on Forgetting, Overfit and Training-Free
Ensembles of DNNs [9.010643838773477]
本稿では,検証データ上での深層モデルの忘れ度をモニタする,過剰適合度定量化のための新しいスコアを提案する。
オーバーフィットは検証精度を低下させることなく発生しうることを示し,従来よりも一般的である可能性が示唆された。
我々は,1つのネットワークのトレーニング履歴のみに基づいて,新たなアンサンブル法を構築するために,我々の観測結果を用いて,トレーニング時間に追加のコストを要さず,大幅な改善を実現する。
論文 参考訳(メタデータ) (2023-10-17T09:22:22Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Joint Training of Deep Ensembles Fails Due to Learner Collusion [61.557412796012535]
機械学習モデルのアンサンブルは、単一のモデルよりもパフォーマンスを改善する強力な方法として確立されている。
伝統的に、アンサンブルアルゴリズムは、ジョイントパフォーマンスの最適化を目標として、ベースラーナーを独立または逐次訓練する。
アンサンブルの損失を最小化することは、実際にはほとんど適用されないことを示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:07Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - An Empirical Investigation of the Role of Pre-training in Lifelong
Learning [21.995593026269578]
複数のタスクを逐次学習する際の破滅的忘れの影響を,ジェネリック事前学習が暗黙的に軽減することを示す。
本研究では、この現象を損失景観を解析し、トレーニング済みの重みがより広いミニマへと導くことで忘れやすいように見えることを明らかにする。
論文 参考訳(メタデータ) (2021-12-16T19:00:55Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Overfitting in adversarially robust deep learning [86.11788847990783]
トレーニングセットへの過度な適合は、実際には、逆向きの堅牢なトレーニングにおいて、非常に大きなロバストなパフォーマンスを損なうことを示す。
また, 2重降下曲線のような効果は, 逆向きに訓練されたモデルでもまだ起こるが, 観測された過度なオーバーフィッティングを説明できないことを示す。
論文 参考訳(メタデータ) (2020-02-26T15:40:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。