論文の概要: FOSSIL: Regret-minimizing weighting for robust learning under imbalance and small data
- arxiv url: http://arxiv.org/abs/2509.13218v1
- Date: Tue, 16 Sep 2025 16:23:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.172019
- Title: FOSSIL: Regret-minimizing weighting for robust learning under imbalance and small data
- Title(参考訳): FOSSIL:不均衡と小さなデータによる頑健な学習のためのレグレット最小化重み付け
- Authors: J. Cha, J. Lee, J. Cho, J. Shin,
- Abstract要約: 不均衡や小さなデータ体制は、希少な疾患の画像、ゲノム学、災害対応といった領域に広く浸透している。
ERMILは,クラス不均衡補正,難易度対応のカリキュラム,拡張ペナルティ,動的処理をシームレスに統合する統一重み付けフレームワークである。
- 参考スコア(独自算出の注目度): 0.022046427675233182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Imbalanced and small data regimes are pervasive in domains such as rare disease imaging, genomics, and disaster response, where labeled samples are scarce and naive augmentation often introduces artifacts. Existing solutions such as oversampling, focal loss, or meta-weighting address isolated aspects of this challenge but remain fragile or complex. We introduce FOSSIL (Flexible Optimization via Sample Sensitive Importance Learning), a unified weighting framework that seamlessly integrates class imbalance correction, difficulty-aware curricula, augmentation penalties, and warmup dynamics into a single interpretable formula. Unlike prior heuristics, the proposed framework provides regret-based theoretical guarantees and achieves consistent empirical gains over ERM, curriculum, and meta-weighting baselines on synthetic and real-world datasets, while requiring no architectural changes.
- Abstract(参考訳): 不均衡や小さなデータ体制は、希少な疾患のイメージング、ゲノム学、災害対応といった領域に広く浸透しており、ラベル付きサンプルが不足し、素早い増強がしばしば人工物を導入する。
オーバーサンプリング、焦点損失、メタ重み付けといった既存のソリューションは、この課題の独立した側面に対処するが、脆弱あるいは複雑である。
FOSSIL(Flexible Optimization via Sample Sensitive Importance Learning)は、クラス不均衡補正、難易度対応のカリキュラム、拡張ペナルティ、ウォームアップダイナミクスをシームレスに統合した統合重み付けフレームワークである。
従来のヒューリスティックと異なり、提案するフレームワークは、アーキテクチャ上の変更を必要とせず、ERM、カリキュラム、および合成および実世界のデータセットに対するメタ重み付けベースラインに対して、後悔に基づく理論的保証を提供し、一貫した経験的利益を達成する。
関連論文リスト
- Learning Majority-to-Minority Transformations with MMD and Triplet Loss for Imbalanced Classification [0.5390869741300152]
教師付き分類におけるクラス不均衡は、多数派に対する予測をバイアスすることでモデル性能を低下させることが多い。
多数サンプルをマイノリティ分布にマッピングするパラメトリック変換を学習するオーバーサンプリングフレームワークを導入する。
提案手法は,グローバルアライメントのためのトランスフォーメーションと真のマイノリティサンプル間の平均最大誤差(MMD)を最小化する。
論文 参考訳(メタデータ) (2025-09-15T01:47:29Z) - FedGSCA: Medical Federated Learning with Global Sample Selector and Client Adaptive Adjuster under Label Noise [3.5585588724306643]
フェデレートラーニング(FL)は、データのプライバシを保持しながら、協調的な医療画像分類のソリューションとして登場した。
ノイズの多い医療FLにおけるロバスト性向上のための新しいフレームワークであるFedGSCAを提案する。
我々はFedGSCAを実世界の1つのコロンスライスデータセットと2つの合成医療データセットで様々なノイズ条件下で評価した。
論文 参考訳(メタデータ) (2025-07-13T08:51:51Z) - MIRRAMS: Learning Robust Tabular Models under Unseen Missingness Shifts [2.5357049657770516]
欠落した値はしばしばデータ収集ポリシーのバリエーションを反映し、時間や場所によって変化することがある。
このようなトレーニングとテストインプットの間の不足分布の変化は、堅牢な予測性能を達成する上で大きな課題となる。
この課題に対処するために設計された,新しいディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-11T03:03:30Z) - Paving the way for scientific foundation models: enhancing generalization and robustness in PDEs with constraint-aware pre-training [49.8035317670223]
科学基盤モデル(SciFM)は、様々な領域にまたがる伝達可能な表現を学習するための有望なツールとして登場しつつある。
本稿では,PDE残差を単独の学習信号として,あるいはデータ損失と組み合わせて事前学習に組み込むことにより,限定的あるいは実用的でないトレーニングデータに補償することを提案する。
以上の結果から, PDE制約による事前学習は, 解データのみを訓練したモデルよりも, 一般化を著しく向上させることが示された。
論文 参考訳(メタデータ) (2025-03-24T19:12:39Z) - Error Distribution Smoothing:Advancing Low-Dimensional Imbalanced Regression [2.435853975142516]
実世界の回帰タスクでは、データセットは頻繁に不均衡な分布を示し、その特徴は、高複雑さ領域におけるデータの不足と低複雑さ領域における量の不足である。
データ密度のみに焦点をあてる従来の定義を超えて、問題の複雑さとデータポイントの密度の両方を考慮に入れた「不均衡回帰」という新しい概念を導入する。
本研究では,不均衡な回帰に対処するための解として誤り分布平滑化(EDS)を提案し,バランスと代表性を保ちながら,データセットから代表サブセットを効果的に選択し冗長性を低減する。
論文 参考訳(メタデータ) (2025-02-04T12:40:07Z) - Feasible Learning [78.6167929413604]
本稿では,サンプル中心の学習パラダイムであるFeasible Learning(FL)を紹介する。
大規模言語モデルにおける画像分類, 年齢回帰, 好みの最適化といった経験的分析により, FLを用いて訓練したモデルでは, 平均的性能に限界があるものの, ERMと比較して改善された尾の挙動を示しながらデータから学習できることが実証された。
論文 参考訳(メタデータ) (2025-01-24T20:39:38Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - Stabilizing and Improving Federated Learning with Non-IID Data and
Client Dropout [15.569507252445144]
ラベル分布スキューによるデータヘテロジェニーティは、フェデレート学習におけるモデル性能を制限する重要な障害であることが示されている。
クロスエントロピー損失を計算するための事前校正ソフトマックス関数を導入することで、シンプルで効果的なフレームワークを提案する。
非IIDデータとクライアントドロップアウトの存在下で、既存のベースラインよりも優れたモデル性能を示す。
論文 参考訳(メタデータ) (2023-03-11T05:17:59Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。