論文の概要: FairNet: Dynamic Fairness Correction without Performance Loss via Contrastive Conditional LoRA
- arxiv url: http://arxiv.org/abs/2510.19421v1
- Date: Wed, 22 Oct 2025 09:44:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:15.532985
- Title: FairNet: Dynamic Fairness Correction without Performance Loss via Contrastive Conditional LoRA
- Title(参考訳): FairNet: コントラスト条件付きLORAによるパフォーマンス損失のない動的フェアネス補正
- Authors: Songqi Zhou, Zeyuan Liu, Benben Jiang,
- Abstract要約: 既存のデバイアス法ではパフォーマンスが損なわれ、静的な修正戦略に頼り、データの分散に苦しむ。
動的でインスタンスレベルの公平性を補正する新しいフレームワークであるFairNetを提案する。
FairNetはバイアス検出器と条件付き低ランク適応(LoRA)を統合し、フェアネス補正機構の選択的活性化を可能にする。
- 参考スコア(独自算出の注目度): 5.249681536579415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring fairness in machine learning models is a critical challenge. Existing debiasing methods often compromise performance, rely on static correction strategies, and struggle with data sparsity, particularly within minority groups. Furthermore, their utilization of sensitive attributes is often suboptimal, either depending excessively on complete attribute labeling or disregarding these attributes entirely. To overcome these limitations, we propose FairNet, a novel framework for dynamic, instance-level fairness correction. FairNet integrates a bias detector with conditional low-rank adaptation (LoRA), which enables selective activation of the fairness correction mechanism exclusively for instances identified as biased, and thereby preserve performance on unbiased instances. A key contribution is a new contrastive loss function for training the LoRA module, specifically designed to minimize intra-class representation disparities across different sensitive groups and effectively address underfitting in minority groups. The FairNet framework can flexibly handle scenarios with complete, partial, or entirely absent sensitive attribute labels. Theoretical analysis confirms that, under moderate TPR/FPR for the bias detector, FairNet can enhance the performance of the worst group without diminishing overall model performance, and potentially yield slight performance improvements. Comprehensive empirical evaluations across diverse vision and language benchmarks validate the effectiveness of FairNet.
- Abstract(参考訳): 機械学習モデルにおける公平性の確保は重要な課題である。
既存のデバイアス法は、しばしばパフォーマンスを損なうことがあり、静的な修正戦略に頼り、特に少数派のグループにおいて、データの分散に苦しむ。
さらに、センシティブな属性の利用は、完全な属性のラベル付けに過度に依存するか、あるいはそれらの属性を完全に無視するかによって、しばしば準最適である。
このような制限を克服するために,動的でインスタンスレベルの公正度を補正する新しいフレームワークであるFairNetを提案する。
FairNetはバイアス検出器と条件付き低ランク適応(LoRA)を統合し、バイアスと特定されたインスタンスのみにフェアネス補正機構を選択的に活性化し、バイアスのないインスタンスのパフォーマンスを維持する。
重要な貢献は、LoRAモジュールをトレーニングするための新しい対照的な損失関数であり、特に、異なる機密グループ間でのクラス内表現格差を最小限に抑え、少数グループの不適合に効果的に対処するよう設計されている。
FairNetフレームワークは、完全に、部分的、または完全に欠落した属性ラベルでシナリオを柔軟に処理できる。
理論的解析により、バイアス検出器の適度なTPR/FPRの下では、FairNetはモデル全体の性能を低下させることなく最悪のグループの性能を向上させることができ、性能がわずかに向上する可能性が確認された。
多様なビジョンと言語ベンチマークにわたる総合的な経験的評価は、FairNetの有効性を検証する。
関連論文リスト
- Fairness-Aware Low-Rank Adaptation Under Demographic Privacy Constraints [4.647881572951815]
事前訓練された基礎モデルはローランド適応(LoRA)を用いて特定のタスクに適応することができる
既存のフェアネスを意識した微調整手法は、機密属性や予測器への直接アクセスに依存している。
分散方式でトレーニング可能なLoRAベースの微調整手法のセットを紹介する。
論文 参考訳(メタデータ) (2025-03-07T18:49:57Z) - FairLoRA: Unpacking Bias Mitigation in Vision Models with Fairness-Driven Low-Rank Adaptation [3.959853359438669]
低ランク適応のための新しいフェアネス特化正規化器であるFairLoRAについて紹介する。
以上の結果から,偏見を緩和するためのより高いランクの必要性は普遍的ではなく,事前学習モデルやデータセット,タスクといった要因に依存していることがわかった。
論文 参考訳(メタデータ) (2024-10-22T18:50:36Z) - Provable Optimization for Adversarial Fair Self-supervised Contrastive Learning [49.417414031031264]
本稿では,自己教師型学習環境におけるフェアエンコーダの学習について検討する。
すべてのデータはラベル付けされておらず、そのごく一部だけが機密属性で注釈付けされている。
論文 参考訳(メタデータ) (2024-06-09T08:11:12Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Mitigating Algorithmic Bias with Limited Annotations [65.060639928772]
機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-07-20T16:31:19Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。