論文の概要: GeNeX: Genetic Network eXperts framework for addressing Validation Overfitting
- arxiv url: http://arxiv.org/abs/2603.11056v1
- Date: Sat, 28 Feb 2026 06:26:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:38:22.602318
- Title: GeNeX: Genetic Network eXperts framework for addressing Validation Overfitting
- Title(参考訳): GeNeX: バリデーションオーバーフィッティングに対処する遺伝的ネットワークeXpertsフレームワーク
- Authors: Emmanuel Pintelas, Ioannis E. Livieris,
- Abstract要約: モデル選択時の検証パフォーマンスへの過度な依存は、検証の過度な適合につながる可能性がある。
本稿では,モデル生成とアンサンブル構築の段階において,検証過適合を緩和するフレームワークであるGeNeXを提案する。
- 参考スコア(独自算出の注目度): 3.687667417237206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Excessive reliance on validation performance during model selection can lead to validation overfitting (VO), where models appear effective during development but fail at test time. This issue is further amplified in low-data regimes and under distribution shifts, where validation signals become unreliable. Although ensemble learning is widely used to improve robustness and generalization, most ensemble construction pipelines depend heavily on validation scores, leaving them vulnerable to VO and limiting their reliability in real-world deployment scenarios. To address this, we propose GeNeX (Genetic Network eXperts), a framework that mitigates validation overfitting at both model generation and ensemble construction stages. In the generation phase, GeNeX employs a dual-path strategy: gradient-based training is coupled with genetic model evolution. Offspring networks are created via crossover of trained parents, promoting structural diversity and weight-level regeneration without relying on validation feedback. This results in a candidate pool of robust, non-overfitted models. During ensemble construction, the candidate networks are clustered by prediction behavior to identify complementary model spaces. Within each cluster, multiple diverse experts are selected using criteria such as robustness and representativeness, and fused at the weight level to form compact prototype networks. The final ensemble aggregates these prototypes, with predictions optimized via Sequential Quadratic Programming for output-level synergy. To rigorously evaluate VO resilience, we introduce a VO-aware evaluation protocol that simulates realistic deployment scenarios by enforcing distributional divergence between training and test subsets.
- Abstract(参考訳): モデル選択時の検証パフォーマンスへの過剰な依存は、モデルの開発時に有効に見えるが、テスト時に失敗するバリデーションオーバーフィッティング(VO)につながる可能性がある。
この問題は、検証信号の信頼性が低下する低データのレシエーションや分散シフトにおいてさらに増幅される。
アンサンブル学習は堅牢性と一般化を改善するために広く使用されているが、ほとんどのアンサンブル構築パイプラインは検証スコアに大きく依存しており、VOに脆弱であり、実際のデプロイメントシナリオにおける信頼性を制限している。
そこで我々は,モデル生成とアンサンブル構築の段階において,検証過適合を緩和するフレームワークGeNeX(Genetic Network eXperts)を提案する。
生成段階では、GeNeXはデュアルパス戦略を採用しており、勾配に基づくトレーニングは遺伝的モデル進化と結合している。
子孫ネットワークは、訓練された両親の交叉を通じて作成され、検証フィードバックに頼ることなく、構造的多様性と体重レベルの再生を促進する。
この結果、頑丈で不適合なモデルの候補プールが生まれる。
アンサンブル構築中、候補ネットワークは予測行動によってクラスタ化され、相補的なモデル空間を識別する。
各クラスタ内では、ロバスト性や代表性といった基準を用いて複数の多様な専門家が選ばれ、重量レベルで融合してコンパクトなプロトタイプネットワークを形成する。
最終的なアンサンブルはこれらのプロトタイプを集約し、逐次準計画法によって出力レベルのシナジーに最適化される。
VOレジリエンスを厳格に評価するために,トレーニングとテストサブセット間の分散分散を強制することにより,現実的なデプロイメントシナリオをシミュレートするVO対応評価プロトコルを導入する。
関連論文リスト
- Benchmarking Few-shot Transferability of Pre-trained Models with Improved Evaluation Protocols [123.73663884421272]
より強力な事前訓練モデルと改良された適応アルゴリズムによって、わずかなショット転送が革新されている。
FEWTRANSは10種類のデータセットを含む総合的なベンチマークである。
FEWTRANS をリリースすることにより,数発の転写学習研究において再現性の向上を合理化するための厳密な "ルーラー" の提供を目指す。
論文 参考訳(メタデータ) (2026-02-28T05:41:57Z) - Did Models Sufficient Learn? Attribution-Guided Training via Subset-Selected Counterfactual Augmentation [61.248535801314375]
Subset-Selected Counterfactual Augmentation (SS-CA)
我々は,モデル予測を選択的に変更可能な最小空間領域集合を識別するために,対実的LIMAを開発した。
実験により,SS-CAは分布内テストデータ(ID)の一般化を改善し,分布外ベンチマーク(OOD)において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-11-15T08:39:22Z) - Learning Robust Diffusion Models from Imprecise Supervision [75.53546939251146]
DMISは、Imrecise Supervisionから堅牢な条件拡散モデルをトレーニングするための統一されたフレームワークである。
我々のフレームワークは、可能性から派生し、その目的を生成的および分類的構成要素に分解する。
画像生成、弱教師付き学習、データセットの凝縮をカバーし、様々な形の不正確な監視実験を行い、DMISが常に高品質でクラス差別的なサンプルを生成することを示した。
論文 参考訳(メタデータ) (2025-10-03T14:00:32Z) - Score-based Generative Modeling for Conditional Independence Testing [35.0533359302886]
本稿では,精度の高いタイプIエラー制御と強力なテスト能力を実現するための,スコアベース生成モデルによる新しいCIテスト手法を提案する。
スコアベース生成モデルによりモデル化された条件分布の誤差境界を理論的に確立し,CIテストの有効性を検証した。
論文 参考訳(メタデータ) (2025-05-29T10:10:46Z) - Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution [67.9215891673174]
離散空間に対するスコアマッチングを自然に拡張する新たな損失として,スコアエントロピーを提案する。
標準言語モデリングタスク上で,Score Entropy Discrete Diffusionモデルをテストする。
論文 参考訳(メタデータ) (2023-10-25T17:59:12Z) - Enhancing Text Generation with Cooperative Training [23.971227375706327]
ほとんどの一般的な方法は、別々に生成的および差別的なモデルを訓練し、互いに変化に適応できなかった。
本稿では,識別器とジェネレータをクローズドループで協調的に学習するテキスト分野におけるテキスト自己一貫性学習フレームワークを提案する。
我々のフレームワークは、モード崩壊や非収束といったトレーニングの不安定さを軽減することができる。
論文 参考訳(メタデータ) (2023-03-16T04:21:19Z) - Semantic Self-adaptation: Enhancing Generalization with a Single Sample [45.111358665370524]
セマンティックセグメンテーションのための自己適応型アプローチを提案する。
整合正則化を用いて畳み込み層のパラメータを入力画像に微調整する。
実験により, 自己適応は訓練時のモデル正規化の確立した実践を補完する可能性が示唆された。
論文 参考訳(メタデータ) (2022-08-10T12:29:01Z) - Model Rectification via Unknown Unknowns Extraction from Deployment
Samples [8.0497115494227]
本稿では, 訓練後のモデル修正を, 教師付き方式で実施することを目的とした, 汎用的なアルゴリズムフレームワークを提案する。
RTSCVは未知の未知(u.u.s)を抽出する
RTSCVは最先端のアプローチよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-02-08T11:46:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。