論文の概要: Evolved SampleWeights for Bias Mitigation: Effectiveness Depends on Optimization Objectives
- arxiv url: http://arxiv.org/abs/2511.20909v1
- Date: Tue, 25 Nov 2025 22:50:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.888402
- Title: Evolved SampleWeights for Bias Mitigation: Effectiveness Depends on Optimization Objectives
- Title(参考訳): バイアス軽減のための進化的サンプルウェイト:最適化対象への有効性依存
- Authors: Anil K. Saini, Jose Guadalupe Hernandez, Emily F. Wong, Debanshi Misra, Jason H. Moore,
- Abstract要約: 実世界のデータに基づいてトレーニングされた機械学習モデルは、必然的に偏見のある予測を生み出す可能性がある。
重み付け(reweighting)は、モデルトレーニングで使用される各データポイントに重みを割り当てることで、モデル予測におけるそのようなバイアスを軽減する方法である。
進化したサンプル重みは、代替重み付け法よりも公正度と予測性能のトレードオフが良いモデルを生成することができることを示す。
- 参考スコア(独自算出の注目度): 0.36569643583149225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models trained on real-world data may inadvertently make biased predictions that negatively impact marginalized communities. Reweighting is a method that can mitigate such bias in model predictions by assigning a weight to each data point used during model training. In this paper, we compare three methods for generating these weights: (1) evolving them using a Genetic Algorithm (GA), (2) computing them using only dataset characteristics, and (3) assigning equal weights to all data points. Model performance under each strategy was evaluated using paired predictive and fairness metrics, which also served as optimization objectives for the GA during evolution. Specifically, we used two predictive metrics (accuracy and area under the Receiver Operating Characteristic curve) and two fairness metrics (demographic parity difference and subgroup false negative fairness). Using experiments on eleven publicly available datasets (including two medical datasets), we show that evolved sample weights can produce models that achieve better trade-offs between fairness and predictive performance than alternative weighting methods. However, the magnitude of these benefits depends strongly on the choice of optimization objectives. Our experiments reveal that optimizing with accuracy and demographic parity difference metrics yields the largest number of datasets for which evolved weights are significantly better than other weighting strategies in optimizing both objectives.
- Abstract(参考訳): 実世界のデータに基づいてトレーニングされた機械学習モデルは、必然的に偏見のある予測を生み出す可能性がある。
重み付け(reweighting)は、モデルトレーニングで使用される各データポイントに重みを割り当てることで、モデル予測におけるそのようなバイアスを軽減する方法である。
本稿では,(1)遺伝的アルゴリズム(GA)を用いてそれらを進化させ,(2)データセットの特性のみを用いてそれらを計算し,(3)全てのデータポイントに等重量を割り当てる3つの手法を比較する。
各戦略下でのモデル性能は, 進化過程におけるGAの最適化目標としての役割も果たした, ペア付き予測値とフェアネス値を用いて評価した。
具体的には,2つの予測指標(受信者動作特性曲線の精度と面積)と2つのフェアネス指標(デコグラフパリティ差とサブグループ偽陰性さ)を用いた。
利用可能な11のデータセット(2つの医療データセットを含む)の実験を用いて、進化したサンプル重み付けは、代替重み付け法よりも公正性と予測性能のトレードオフをより良く達成できるモデルを生成することができることを示した。
しかし、これらの利点の大きさは最適化の目的の選択に強く依存する。
我々の実験は、精度と人口統計学的比の差で最適化することで、両方の目的を最適化する他の重み付け戦略よりも、進化した重み付けが著しく優れているデータセットの最大数が得られることを示した。
関連論文リスト
- Efficient Data Selection at Scale via Influence Distillation [53.03573620682107]
本稿では,データ選択のための数学的に修飾されたフレームワークであるインフルエンス蒸留を紹介する。
対象分布に対する各試料の影響を蒸留することにより,トレーニングデータの選択に使用されるモデル固有の重みを割り当てる。
実験の結果、蒸留の影響は最先端のパフォーマンスに匹敵し、最大3.5タイムの高速選択を実現していることがわかった。
論文 参考訳(メタデータ) (2025-05-25T09:08:00Z) - Optimizing importance weighting in the presence of sub-population shifts [0.0]
トレーニングデータとテストデータの間の分散シフトは、機械学習モデルの性能を著しく損なう可能性がある。
トレーニングデータの有限標本サイズによる推定モデルのばらつきの増大を無視するため,既存の重み付けは準最適であると主張する。
重みとモデルパラメータを同時に最適化する二段階最適化手法を提案する。
論文 参考訳(メタデータ) (2024-10-18T09:21:10Z) - AutoScale: Scale-Aware Data Mixing for Pre-Training LLMs [59.12061830645018]
より小さなスケールで良好に機能するデータ混合物は、大規模なスケールではその利点を保たない可能性があることを示す。
2段階のスケール対応データ合成フレームワークであるAutoScaleを提案する。
論文 参考訳(メタデータ) (2024-07-29T17:06:30Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - FORML: Learning to Reweight Data for Fairness [2.105564340986074]
メタラーニング(FORML)によるフェアネス最適化リヘアリングについて紹介する。
FORMLは、トレーニングサンプル重量とニューラルネットワークのパラメータを共同最適化することで、公正性の制約と精度のバランスを取る。
また,FORMLは,既存の最先端再重み付け手法に比べて,画像分類タスクで約1%,顔予測タスクで約5%向上することを示した。
論文 参考訳(メタデータ) (2022-02-03T17:36:07Z) - BiFair: Training Fair Models with Bilevel Optimization [8.2509884277533]
我々は,ユーティリティの最小化と公正な関心の喪失を両立させる,BiFairという新しいトレーニングアルゴリズムを開発した。
我々のアルゴリズムは、常により良い性能、すなわち、与えられた公正度メトリックのより優れた値、あるいはより高い精度で到達する。
論文 参考訳(メタデータ) (2021-06-03T22:36:17Z) - A Comparison of Methods for Treatment Assignment with an Application to
Playlist Generation [13.804332504576301]
文献で提案される様々な手法をアルゴリズムの3つの一般的なクラス(またはメタナー)に分類する。
結果や因果効果の予測を最適化することは、治療課題の最適化と同じではないことを分析的および実証的に示す。
これは、大規模な実世界のアプリケーションにおける3つの異なるメタラーナーの最初の比較である。
論文 参考訳(メタデータ) (2020-04-24T04:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。