論文の概要: Rethinking Fano's Inequality in Ensemble Learning
- arxiv url: http://arxiv.org/abs/2205.12683v2
- Date: Thu, 16 Nov 2023 09:43:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 18:54:16.116676
- Title: Rethinking Fano's Inequality in Ensemble Learning
- Title(参考訳): アンサンブル学習におけるファノの不平等の再考
- Authors: Terufumi Morishita, Gaku Morio, Shota Horiguchi, Hiroaki Ozaki, Nobuo
Nukaga
- Abstract要約: 我々は、複数のモデル予測が最終的な予測に組み合わされたときに失われた情報を考慮に入れなかったと論じる。
実システムに関する広範な実験を通じて,提案した理論を実証的に検証し,実証する。
- 参考スコア(独自算出の注目度): 17.948799609068214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a fundamental theory on ensemble learning that answers the central
question: what factors make an ensemble system good or bad? Previous studies
used a variant of Fano's inequality of information theory and derived a lower
bound of the classification error rate on the basis of the $\textit{accuracy}$
and $\textit{diversity}$ of models. We revisit the original Fano's inequality
and argue that the studies did not take into account the information lost when
multiple model predictions are combined into a final prediction. To address
this issue, we generalize the previous theory to incorporate the information
loss, which we name $\textit{combination loss}$. Further, we empirically
validate and demonstrate the proposed theory through extensive experiments on
actual systems. The theory reveals the strengths and weaknesses of systems on
each metric, which will push the theoretical understanding of ensemble learning
and give us insights into designing systems.
- Abstract(参考訳): 我々は,アンサンブル学習の基本的な理論を提案し,その中心的な疑問に答える: アンサンブルシステムを良いか悪いかを決める要因は何か?
これまでの研究では、ファノの情報理論の不等式(英語版)の変種を使い、モデルの$\textit{accuracy}$ と $\textit{diversity}$ に基づいて分類誤差率の下限を導いた。
我々は、元のファノの不等式を再検討し、複数のモデル予測を組み合わせて最終予測を行う際に失われた情報を考慮していないと主張した。
この問題に対処するため、私たちは以前の理論を一般化して情報損失を取り入れ、$\textit{combination loss}$と名付けます。
さらに,実システムに関する広範囲な実験により,提案理論を実証的に検証し,実証する。
この理論は、各メートル法上のシステムの強みと弱みを明らかにし、アンサンブル学習の理論的理解を促進し、システム設計への洞察を与える。
関連論文リスト
- An Effective Theory of Bias Amplification [18.648588509429167]
機械学習モデルは、データに存在するバイアスをキャプチャして増幅し、社会的グループ間で異なるテストパフォーマンスをもたらす。
本稿では、従来のニューラルネットワークを単純化した状態下でモデル化するリッジ回帰の文脈において、正確な解析理論を提案する。
我々の理論は、機械学習バイアスの統一的で厳密な説明を提供し、バイアス増幅やマイノリティグループバイアスのような現象に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-10-07T08:43:22Z) - Skews in the Phenomenon Space Hinder Generalization in Text-to-Image Generation [59.138470433237615]
本稿では,関係学習用データセットの言語的スキューと視覚的スクリューの両方を定量化する統計指標を提案する。
系統的に制御されたメトリクスは、一般化性能を強く予測できることを示す。
この研究は、データの多様性やバランスを向上し、絶対的なサイズをスケールアップするための重要な方向を示します。
論文 参考訳(メタデータ) (2024-03-25T03:18:39Z) - It's an Alignment, Not a Trade-off: Revisiting Bias and Variance in Deep
Models [51.66015254740692]
深層学習に基づく分類モデルのアンサンブルでは, バイアスと分散がサンプルレベルで一致していることが示される。
我々はこの現象をキャリブレーションと神経崩壊という2つの理論的観点から研究する。
論文 参考訳(メタデータ) (2023-10-13T17:06:34Z) - Beyond spectral gap (extended): The role of the topology in
decentralized learning [58.48291921602417]
機械学習モデルのデータ並列最適化では、労働者はモデルの推定値を改善するために協力する。
現在の理論では、コラボレーションはトレーニング単独よりも学習率が大きいことを説明していない。
本稿では,疎結合分散最適化の正確な図面を描くことを目的とする。
論文 参考訳(メタデータ) (2023-01-05T16:53:38Z) - A Theoretical Study of Inductive Biases in Contrastive Learning [32.98250585760665]
モデルクラスから派生した帰納的バイアスの効果を取り入れた,自己指導型学習に関する最初の理論的分析を行った。
モデルが限られたキャパシティを持つ場合、コントラスト表現はモデルアーキテクチャと互換性のある特定のクラスタリング構造を復元することを示す。
論文 参考訳(メタデータ) (2022-11-27T01:53:29Z) - Beyond spectral gap: The role of the topology in decentralized learning [58.48291921602417]
機械学習モデルのデータ並列最適化では、労働者はモデルの推定値を改善するために協力する。
本稿では、労働者が同じデータ分散を共有するとき、疎結合な分散最適化の正確な図面を描くことを目的とする。
我々の理論は深層学習における経験的観察と一致し、異なるグラフトポロジーの相対的メリットを正確に記述する。
論文 参考訳(メタデータ) (2022-06-07T08:19:06Z) - Rate-Distortion Theoretic Generalization Bounds for Stochastic Learning
Algorithms [12.020634332110147]
我々は、レート歪曲理論のレンズを通して、新しい一般化が有界であることを証明している。
我々の結果は、一般化に関するより統一された視点をもたらし、将来の研究方向性を開拓する。
論文 参考訳(メタデータ) (2022-03-04T18:12:31Z) - Understanding Square Loss in Training Overparametrized Neural Network
Classifiers [31.319145959402462]
過度にパラメータ化されたニューラルネットワークでどのように機能するかを体系的に検討することにより、分類における二乗損失の理論的理解に寄与する。
クラスが分離可能か否かに応じて2つのケースを考慮する。一般的な非分離可能の場合、誤分類率と校正誤差の両方について、高速収束率が確立される。
結果として得られるマージンはゼロから下界であることが証明され、ロバスト性の理論的な保証を提供する。
論文 参考訳(メタデータ) (2021-12-07T12:12:30Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Blocked and Hierarchical Disentangled Representation From Information
Theory Perspective [0.6875312133832078]
本稿では,ブロック型かつ階層型可変オートエンコーダ(BHiVAE)を提案する。
BHiVAEは主に情報ボトルネック理論と情報原理に由来する。
実験における優れた非絡み合い結果と表現学習における優れた分類精度を示す。
論文 参考訳(メタデータ) (2021-01-21T02:33:55Z) - A Theory of Usable Information Under Computational Constraints [103.5901638681034]
本稿では,複雑なシステムにおける情報推論のための新しいフレームワークを提案する。
我々の基礎はシャノンの情報理論の変分拡張に基づいている。
計算制約を組み込むことで,データから$mathcalV$-informationを確実に推定できることを示す。
論文 参考訳(メタデータ) (2020-02-25T06:09:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。