論文の概要: OxEnsemble: Fair Ensembles for Low-Data Classification
- arxiv url: http://arxiv.org/abs/2512.09665v1
- Date: Wed, 10 Dec 2025 14:08:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.545755
- Title: OxEnsemble: Fair Ensembles for Low-Data Classification
- Title(参考訳): OxEnsemble: 低データの分類のためのフェアアンサンブル
- Authors: Jonathan Rystrøm, Zihao Fu, Chris Russell,
- Abstract要約: 我々は,低データ体制におけるアンサンブルを効率的に訓練し,公平性を高めるための新しいアプローチを提案する。
構成上、emphOxEnsembleはデータ効率が高く、ホールドアウトしたデータを慎重に再利用して公平性を確実に実施し、計算効率が良い。
- 参考スコア(独自算出の注目度): 9.81842989622959
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of fair classification in settings where data is scarce and unbalanced across demographic groups. Such low-data regimes are common in domains like medical imaging, where false negatives can have fatal consequences. We propose a novel approach \emph{OxEnsemble} for efficiently training ensembles and enforcing fairness in these low-data regimes. Unlike other approaches, we aggregate predictions across ensemble members, each trained to satisfy fairness constraints. By construction, \emph{OxEnsemble} is both data-efficient, carefully reusing held-out data to enforce fairness reliably, and compute-efficient, requiring little more compute than used to fine-tune or evaluate an existing model. We validate this approach with new theoretical guarantees. Experimentally, our approach yields more consistent outcomes and stronger fairness-accuracy trade-offs than existing methods across multiple challenging medical imaging classification datasets.
- Abstract(参考訳): 人口集団間でデータが不足し不均衡な環境での公平な分類の問題に対処する。
このような低データ体制は、偽陰性が致命的な結果をもたらす医療画像のような領域で一般的である。
本稿では,これらの低データ体制におけるアンサンブルを効率よく訓練し,公平性を高めるための新しいアプローチであるemph{OxEnsemble}を提案する。
他のアプローチとは異なり、私たちはアンサンブルメンバー間で予測を集約し、それぞれが公正な制約を満たすように訓練します。
構築によって、 \emph{OxEnsemble} はデータ効率が高く、保留データを慎重に再利用して公正性を確実に実行し、計算効率が良く、既存のモデルを微調整したり評価したりするのに使用する計算量よりも少ない。
我々はこの手法を新たな理論的保証で検証する。
実験により,本手法は,複数の挑戦的な医用画像分類データセットにまたがる既存の手法よりも,より一貫性のある結果と公平性-正確性のトレードオフをもたらす。
関連論文リスト
- Fairness for the People, by the People: Minority Collective Action [50.29077265863936]
機械学習モデルは、トレーニングデータに存在するバイアスを保存し、一部の少数民族を不公平に扱う。
我々は,企業のトレーニングプロセスを変更することなく,公正性を高めるために,自らのデータを戦略的に再ラベルする調整されたマイノリティグループを提案する。
以上の結果から,少数民族のサブグループは,全体の予測誤差に少なからぬ影響で,不公平さを著しく低減できることが明らかとなった。
論文 参考訳(メタデータ) (2025-08-21T09:09:39Z) - Noise-Adaptive Conformal Classification with Marginal Coverage [53.74125453366155]
本稿では,ランダムラベルノイズによる交換性からの偏差を効率的に処理できる適応型共形推論手法を提案する。
本手法は,合成および実データに対して,その有効性を示す広範囲な数値実験により検証する。
論文 参考訳(メタデータ) (2025-01-29T23:55:23Z) - Achievable Fairness on Your Data With Utility Guarantees [16.78730663293352]
機械学習の公平性において、異なるセンシティブなグループ間の格差を最小限に抑えるトレーニングモデルは、しばしば精度を低下させる。
本稿では,各データセットに適合する公平性-正確性トレードオフ曲線を近似する計算効率のよい手法を提案する。
そこで我々は,モデルフェアネスを監査するための堅牢な枠組みを実践者に提供し,評価の不確実性を定量化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T00:59:32Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - Fast Fair Regression via Efficient Approximations of Mutual Information [0.0]
本稿では, 回帰モデルに対する独立性, 分離性, 充足性グループフェアネス基準の高速な近似について紹介する。
正規化リスク最小化フレームワーク内で公正性を強制するために、正規化のような近似を使用する。
実世界のデータセットでの実験では、計算効率が優れているにもかかわらず、我々のアルゴリズムは依然として最先端の精度/フェアネスのトレードオフを示す。
論文 参考訳(メタデータ) (2020-02-14T08:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。