論文の概要: Feature-Wise Mixing for Mitigating Contextual Bias in Predictive Supervised Learning
- arxiv url: http://arxiv.org/abs/2506.23033v1
- Date: Sat, 28 Jun 2025 23:12:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.677128
- Title: Feature-Wise Mixing for Mitigating Contextual Bias in Predictive Supervised Learning
- Title(参考訳): 予測教師付き学習における文脈バイアスの緩和のための特徴量混合
- Authors: Yash Vardhan Tomar,
- Abstract要約: 本稿では,コンテキストバイアスを緩和する機能ワイド混合フレームワークを提案する。
これは複数のコンテキストデータセットにまたがって機能表現を再配布することで実現された。
平均偏差は43.35%、統計的に有意な2乗誤差の減少を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Bias in predictive machine learning (ML) models is a fundamental challenge due to the skewed or unfair outcomes produced by biased models. Existing mitigation strategies rely on either post-hoc corrections or rigid constraints. However, emerging research claims that these techniques can limit scalability and reduce generalizability. To address this, this paper introduces a feature-wise mixing framework to mitigate contextual bias. This was done by redistributing feature representations across multiple contextual datasets. To assess feature-wise mixing's effectiveness, four ML classifiers were trained using cross-validation and evaluated with bias-sensitive loss functions, including disparity metrics and mean squared error (MSE), which served as a standard measure of predictive performance. The proposed method achieved an average bias reduction of 43.35% and a statistically significant decrease in MSE across all classifiers trained on mixed datasets. Additionally, benchmarking against established bias mitigation techniques found that feature-wise mixing consistently outperformed SMOTE oversampling and demonstrated competitive effectiveness without requiring explicit bias attribute identification. Feature-wise mixing efficiently avoids the computational overhead typically associated with fairness-aware learning algorithms. Future work could explore applying feature-wise mixing for real-world fields where accurate predictions are necessary.
- Abstract(参考訳): 予測機械学習(ML)モデルにおけるバイアスは、偏りのあるモデルが生み出す歪んだ結果や不公平な結果のために、根本的な課題である。
既存の緩和戦略は、ポストホック補正または厳格な制約のいずれかに依存している。
しかし、近年の研究では、これらの技術はスケーラビリティを制限し、一般化可能性を減らすことができると主張している。
そこで本稿では,コンテキストバイアスを緩和する機能ワイドミキシングフレームワークを提案する。
これは複数のコンテキストデータセットにまたがって機能表現を再配布することで実現された。
特徴量混合の有効性を評価するため、4つのML分類器をクロスバリデーションを用いて訓練し、偏差指標と平均二乗誤差(MSE)を含むバイアス感受性損失関数を用いて予測性能の標準尺度として評価した。
提案手法は, 混合データセット上で学習した全ての分類器の平均偏差を43.35%, MSEを統計的に有意に低減した。
さらに、確立されたバイアス緩和技術に対するベンチマークでは、特徴量混合がSMOTEオーバーサンプリングを一貫して上回り、明示的なバイアス属性の識別を必要とせず、競争効果を示した。
特徴量混合は、通常、公正な学習アルゴリズムに付随する計算オーバーヘッドを効果的に回避する。
将来は、正確な予測が必要な実世界のフィールドに機能的混合を適用することを検討する可能性がある。
関連論文リスト
- Class-Conditional Distribution Balancing for Group Robust Classification [11.525201208566925]
間違った理由からモデルが正しい予測に導かれるような豪華な相関関係は、堅牢な現実世界の一般化にとって重要な課題である。
クラス-条件分布における不均衡やミスマッチとして、突発的な相関を緩和することで、新しい視点を提供する。
本稿では,バイアスアノテーションと予測の両方を必要としない,シンプルで効果的な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2025-04-24T07:15:53Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Group Robust Classification Without Any Group Information [5.053622900542495]
この研究は、グループロバストネスに対する現在のバイアス非教師アプローチが、最適なパフォーマンスを達成するためにグループ情報に依存し続けていることを主張する。
バイアスラベルは依然として効果的なモデル選択に不可欠であり、現実のシナリオにおけるこれらの手法の実用性を制限する。
本稿では, 偏りのないモデルに対して, 完全にバイアスのない方法でトレーニングし, 妥当性を検証するための改訂手法を提案する。
論文 参考訳(メタデータ) (2023-10-28T01:29:18Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。