論文の概要: Benchmarking Bias Mitigation Toward Fairness Without Harm from Vision to LVLMs
- arxiv url: http://arxiv.org/abs/2602.03895v1
- Date: Tue, 03 Feb 2026 08:37:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.210154
- Title: Benchmarking Bias Mitigation Toward Fairness Without Harm from Vision to LVLMs
- Title(参考訳): ビジョンからLVLMへのハームのないフェアネスに向けたベンチマークバイアス緩和
- Authors: Xuwei Tan, Ziyu Hu, Xueru Zhang,
- Abstract要約: 実世界のデータに基づいてトレーニングされた機械学習モデルは、特定の社会的グループに対するバイアスを継承し、増幅することが多い。
我々は、標準化されたデータ、メトリクス、トレーニングプロトコルの下で、公正性を損なうことなく統一されたベンチマークであるNH-Fairを紹介する。
- 参考スコア(独自算出の注目度): 14.88523903012028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models trained on real-world data often inherit and amplify biases against certain social groups, raising urgent concerns about their deployment at scale. While numerous bias mitigation methods have been proposed, comparing the effectiveness of bias mitigation methods remains difficult due to heterogeneous datasets, inconsistent fairness metrics, isolated evaluation of vision versus multi-modal models, and insufficient hyperparameter tuning that undermines fair comparisons. We introduce NH-Fair, a unified benchmark for fairness without harm that spans both vision models and large vision-language models (LVLMs) under standardized data, metrics, and training protocols, covering supervised and zero-shot regimes. Our key contributions are: (1) a systematic ERM tuning study that identifies training choices with large influence on both utility and disparities, yielding empirically grounded guidelines to help practitioners reduce expensive hyperparameter tuning space in achieving strong fairness and accuracy; (2) evidence that many debiasing methods do not reliably outperform a well-tuned ERM baseline, whereas a composite data-augmentation method consistently delivers parity gains without sacrificing utility, emerging as a promising practical strategy. (3) an analysis showing that while LVLMs achieve higher average accuracy, they still exhibit subgroup disparities, and gains from scaling are typically smaller than those from architectural or training-protocol choices. NH-Fair provides a reproducible, tuning-aware pipeline for rigorous, harm-aware fairness evaluation.
- Abstract(参考訳): 実世界のデータに基づいてトレーニングされた機械学習モデルは、特定の社会的グループに対するバイアスを継承し、増幅することが多い。
多くのバイアス緩和法が提案されているが、不均一なデータセット、一貫性のない公正度指標、視覚とマルチモーダルモデルの分離された評価、そして公平な比較を損なうような過度パラメータチューニングが不十分なため、バイアス緩和法の有効性の比較は依然として困難である。
我々は、標準化されたデータ、メトリクス、トレーニングプロトコルの下で、視覚モデルと大規模視覚言語モデル(LVLM)の両方にまたがる、公正性のための統一ベンチマークであるNH-Fairを紹介する。
本研究の主な貢献は,(1)実用性と格差に大きな影響を与えるトレーニング選択を同定し,実践者が高い公平性と正確性を達成する上で,高価なハイパーパラメータチューニングスペースを減らすための実証的なガイドラインを提示する体系的EMMチューニング研究,(2)多くのデバイアス手法が十分に調整されたERMベースラインを確実に上回るものではないこと,一方,複合データ拡張手法は実用性を犠牲にすることなく常にパリティゲインを納品し,有望な実用的な戦略として出現すること,の証明である。
(3) LVLM は平均精度が高いものの, サブグループ差がみられ, スケーリングによるゲインは通常, 建築・訓練・プロトコールの選択よりも小さい。
NH-Fairは、厳密で有害な公正性評価のための再現可能なチューニング対応パイプラインを提供する。
関連論文リスト
- Fairness-Aware Low-Rank Adaptation Under Demographic Privacy Constraints [4.647881572951815]
事前訓練された基礎モデルはローランド適応(LoRA)を用いて特定のタスクに適応することができる
既存のフェアネスを意識した微調整手法は、機密属性や予測器への直接アクセスに依存している。
分散方式でトレーニング可能なLoRAベースの微調整手法のセットを紹介する。
論文 参考訳(メタデータ) (2025-03-07T18:49:57Z) - FairLoRA: Unpacking Bias Mitigation in Vision Models with Fairness-Driven Low-Rank Adaptation [3.959853359438669]
低ランク適応のための新しいフェアネス特化正規化器であるFairLoRAについて紹介する。
以上の結果から,偏見を緩和するためのより高いランクの必要性は普遍的ではなく,事前学習モデルやデータセット,タスクといった要因に依存していることがわかった。
論文 参考訳(メタデータ) (2024-10-22T18:50:36Z) - Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。