論文の概要: Benchmarking Bias Mitigation Toward Fairness Without Harm from Vision to LVLMs
- arxiv url: http://arxiv.org/abs/2602.03895v1
- Date: Tue, 03 Feb 2026 08:37:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.210154
- Title: Benchmarking Bias Mitigation Toward Fairness Without Harm from Vision to LVLMs
- Title(参考訳): ビジョンからLVLMへのハームのないフェアネスに向けたベンチマークバイアス緩和
- Authors: Xuwei Tan, Ziyu Hu, Xueru Zhang,
- Abstract要約: 実世界のデータに基づいてトレーニングされた機械学習モデルは、特定の社会的グループに対するバイアスを継承し、増幅することが多い。
我々は、標準化されたデータ、メトリクス、トレーニングプロトコルの下で、公正性を損なうことなく統一されたベンチマークであるNH-Fairを紹介する。
- 参考スコア(独自算出の注目度): 14.88523903012028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models trained on real-world data often inherit and amplify biases against certain social groups, raising urgent concerns about their deployment at scale. While numerous bias mitigation methods have been proposed, comparing the effectiveness of bias mitigation methods remains difficult due to heterogeneous datasets, inconsistent fairness metrics, isolated evaluation of vision versus multi-modal models, and insufficient hyperparameter tuning that undermines fair comparisons. We introduce NH-Fair, a unified benchmark for fairness without harm that spans both vision models and large vision-language models (LVLMs) under standardized data, metrics, and training protocols, covering supervised and zero-shot regimes. Our key contributions are: (1) a systematic ERM tuning study that identifies training choices with large influence on both utility and disparities, yielding empirically grounded guidelines to help practitioners reduce expensive hyperparameter tuning space in achieving strong fairness and accuracy; (2) evidence that many debiasing methods do not reliably outperform a well-tuned ERM baseline, whereas a composite data-augmentation method consistently delivers parity gains without sacrificing utility, emerging as a promising practical strategy. (3) an analysis showing that while LVLMs achieve higher average accuracy, they still exhibit subgroup disparities, and gains from scaling are typically smaller than those from architectural or training-protocol choices. NH-Fair provides a reproducible, tuning-aware pipeline for rigorous, harm-aware fairness evaluation.
- Abstract(参考訳): 実世界のデータに基づいてトレーニングされた機械学習モデルは、特定の社会的グループに対するバイアスを継承し、増幅することが多い。
多くのバイアス緩和法が提案されているが、不均一なデータセット、一貫性のない公正度指標、視覚とマルチモーダルモデルの分離された評価、そして公平な比較を損なうような過度パラメータチューニングが不十分なため、バイアス緩和法の有効性の比較は依然として困難である。
我々は、標準化されたデータ、メトリクス、トレーニングプロトコルの下で、視覚モデルと大規模視覚言語モデル(LVLM)の両方にまたがる、公正性のための統一ベンチマークであるNH-Fairを紹介する。
本研究の主な貢献は,(1)実用性と格差に大きな影響を与えるトレーニング選択を同定し,実践者が高い公平性と正確性を達成する上で,高価なハイパーパラメータチューニングスペースを減らすための実証的なガイドラインを提示する体系的EMMチューニング研究,(2)多くのデバイアス手法が十分に調整されたERMベースラインを確実に上回るものではないこと,一方,複合データ拡張手法は実用性を犠牲にすることなく常にパリティゲインを納品し,有望な実用的な戦略として出現すること,の証明である。
(3) LVLM は平均精度が高いものの, サブグループ差がみられ, スケーリングによるゲインは通常, 建築・訓練・プロトコールの選択よりも小さい。
NH-Fairは、厳密で有害な公正性評価のための再現可能なチューニング対応パイプラインを提供する。
関連論文リスト
- Fair Bayesian Data Selection via Generalized Discrepancy Measures [11.013077130984973]
モデルパラメータとサンプル重みの群固有の後続分布を共有中心分布と整合させることにより、公平性を確保するデータ選択フレームワークを提案する。
我々のフレームワークは、ワッサーシュタイン距離、平均誤差の最大値、および$f$-divergenceなど、様々な分布差によるフレキシブルアライメントをサポートしている。
ベンチマークデータセットを用いた実験の結果,提案手法は既存のデータ選択法やモデルベースフェアネス法を公平性と精度で一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2025-11-10T12:28:04Z) - Modest-Align: Data-Efficient Alignment for Vision-Language Models [67.48633659305592]
クロスモーダルアライメントモデルは、リソース制約のある環境での運用において、過信と劣化したパフォーマンスに悩まされることが多い。
我々は,ロバスト性と効率性に配慮した軽量アライメントフレームワークであるModest-Alignを提案する。
本手法は,実世界の低リソースシナリオにおけるクロスモーダルアライメントを実現するための,実用的でスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2025-10-24T16:11:10Z) - Reference-Specific Unlearning Metrics Can Hide the Truth: A Reality Check [60.77691669644931]
本研究では,非学習モデルと参照モデル間の分布類似度を測定する新しい尺度であるFADE(Functional Alignment for Distributional Equivalence)を提案する。
FADEは出力分布全体の機能的アライメントをキャプチャし、真の未学習の原則的評価を提供する。
これらの知見は、現在の評価実践における根本的なギャップを明らかにし、FADEが真に効果的な未学習手法を開発し評価するための、より堅牢な基盤を提供することを示した。
論文 参考訳(メタデータ) (2025-10-14T20:50:30Z) - Fairness-Aware Low-Rank Adaptation Under Demographic Privacy Constraints [4.647881572951815]
事前訓練された基礎モデルはローランド適応(LoRA)を用いて特定のタスクに適応することができる
既存のフェアネスを意識した微調整手法は、機密属性や予測器への直接アクセスに依存している。
分散方式でトレーニング可能なLoRAベースの微調整手法のセットを紹介する。
論文 参考訳(メタデータ) (2025-03-07T18:49:57Z) - FairLoRA: Unpacking Bias Mitigation in Vision Models with Fairness-Driven Low-Rank Adaptation [3.959853359438669]
低ランク適応のための新しいフェアネス特化正規化器であるFairLoRAについて紹介する。
以上の結果から,偏見を緩和するためのより高いランクの必要性は普遍的ではなく,事前学習モデルやデータセット,タスクといった要因に依存していることがわかった。
論文 参考訳(メタデータ) (2024-10-22T18:50:36Z) - Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。