論文の概要: Robust Mixture Models for Algorithmic Fairness Under Latent Heterogeneity
- arxiv url: http://arxiv.org/abs/2509.17411v1
- Date: Mon, 22 Sep 2025 07:03:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.253309
- Title: Robust Mixture Models for Algorithmic Fairness Under Latent Heterogeneity
- Title(参考訳): 遅延不均質下におけるアルゴリズムフェアネスのロバスト混合モデル
- Authors: Siqi Li, Molei Liu, Ziye Tian, Chuan Hong, Nan Liu,
- Abstract要約: ROMEはデータから潜在グループ構造を学習し、最悪のグループ性能を最適化するフレームワークである。
ROMEは、競争平均性能を維持しながら、標準的な手法と比較してアルゴリズムの公正性を著しく改善する。
本手法では事前定義されたグループラベルは必要とせず,不均一な情報源が不明であったり,進化していたりする場合に有効である。
- 参考スコア(独自算出の注目度): 8.425890077048374
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standard machine learning models optimized for average performance often fail on minority subgroups and lack robustness to distribution shifts. This challenge worsens when subgroups are latent and affected by complex interactions among continuous and discrete features. We introduce ROME (RObust Mixture Ensemble), a framework that learns latent group structure from data while optimizing for worst-group performance. ROME employs two approaches: an Expectation-Maximization algorithm for linear models and a neural Mixture-of-Experts for nonlinear settings. Through simulations and experiments on real-world datasets, we demonstrate that ROME significantly improves algorithmic fairness compared to standard methods while maintaining competitive average performance. Importantly, our method requires no predefined group labels, making it practical when sources of disparities are unknown or evolving.
- Abstract(参考訳): 平均的なパフォーマンスに最適化された標準的な機械学習モデルは、少数派のサブグループでは失敗することが多く、分散シフトに対する堅牢性の欠如がある。
この課題は、部分群が遅延し、連続的および離散的特徴間の複雑な相互作用によって影響を受けるときに悪化する。
ROME(RObust Mixture Ensemble)は、データから潜在グループ構造を学習し、最悪のグループ性能を最適化するフレームワークである。
ROMEは線形モデルに対する期待最大化アルゴリズムと非線形設定のためのニューラルミックス・オブ・エクササイズという2つのアプローチを採用している。
実世界のデータセットのシミュレーションや実験を通じて、ROMEは競争平均性能を維持しながら、標準的な手法に比べてアルゴリズムの公正性を著しく改善することを示した。
重要な点として,本手法では事前定義されたグループラベルは必要とせず,不一致の原因が不明であったり,進化していたりする場合に有効である。
関連論文リスト
- Group Distributionally Robust Machine Learning under Group Level Distributional Uncertainty [14.693433974739213]
本稿では,各群における分布の不確実性を考慮した分散ロバスト最適化(DRO)に基づく新しいフレームワークを提案する。
提案したDRO問題の解法と収束結果を提供するために勾配降下指数アルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-09-10T19:08:17Z) - Regularized Neural Ensemblers [55.15643209328513]
本研究では,正規化ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ランダムにベースモデル予測をドロップすることで,アンサンブルモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性の低い境界を提供し、過度な適合を減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - Mitigating Group Bias in Federated Learning for Heterogeneous Devices [1.181206257787103]
フェデレートラーニング(Federated Learning)は、分散エッジアプリケーションにおけるプライバシ保護モデルトレーニングアプローチとして登場している。
本研究は,プライバシを維持しながら,資源利用のオーバーヘッドを伴わずにグループバイアスを最小限に抑えるグループフェアFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-13T16:53:48Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - Ranking & Reweighting Improves Group Distributional Robustness [14.021069321266516]
本研究では,DRU(Discounted Rank Upweighting)と呼ばれるランキングベースのトレーニング手法を提案し,テストデータ上で強力なOOD性能を示すモデルを学習する。
いくつかの合成および実世界のデータセットの結果は、群分布シフトに頑健なモデルの選択と学習において、グループレベルの(ソフトミニマックスと異なり)アプローチの優れた能力を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-05-09T20:37:16Z) - Take One Gram of Neural Features, Get Enhanced Group Robustness [23.541213868620837]
経験的リスク最小化で訓練された機械学習モデルの予測性能は、分散シフト下で大幅に低下する可能性がある。
本稿では,識別モデルの抽出した特徴の文法行列に基づいて,トレーニングデータセットをグループに分割する。
このアプローチは、ERMに対するグループロバスト性を向上するだけでなく、最近のすべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2022-08-26T12:34:55Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。