論文の概要: SWiFT: Soft-Mask Weight Fine-tuning for Bias Mitigation
- arxiv url: http://arxiv.org/abs/2508.18826v1
- Date: Tue, 26 Aug 2025 09:03:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.769149
- Title: SWiFT: Soft-Mask Weight Fine-tuning for Bias Mitigation
- Title(参考訳): SWiFT: バイオマス対策のためのソフトマスク重量調整
- Authors: Junyu Yan, Feng Chen, Yuyang Xue, Yuning Du, Konstantinos Vilouras, Sotirios A. Tsaftaris, Steven McDonagh,
- Abstract要約: 近年の研究では、機械学習(ML)モデルが現実のシナリオに偏りを示すことが示されている。
識別性能を保ちながら公平性を効果的に向上する脱バイアスフレームワークであるSoft-Mask Weight Fine-Tuning (SWiFT)を提案する。
- 参考スコア(独自算出の注目度): 12.770721233121984
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have shown that Machine Learning (ML) models can exhibit bias in real-world scenarios, posing significant challenges in ethically sensitive domains such as healthcare. Such bias can negatively affect model fairness, model generalization abilities and further risks amplifying social discrimination. There is a need to remove biases from trained models. Existing debiasing approaches often necessitate access to original training data and need extensive model retraining; they also typically exhibit trade-offs between model fairness and discriminative performance. To address these challenges, we propose Soft-Mask Weight Fine-Tuning (SWiFT), a debiasing framework that efficiently improves fairness while preserving discriminative performance with much less debiasing costs. Notably, SWiFT requires only a small external dataset and only a few epochs of model fine-tuning. The idea behind SWiFT is to first find the relative, and yet distinct, contributions of model parameters to both bias and predictive performance. Then, a two-step fine-tuning process updates each parameter with different gradient flows defined by its contribution. Extensive experiments with three bias sensitive attributes (gender, skin tone, and age) across four dermatological and two chest X-ray datasets demonstrate that SWiFT can consistently reduce model bias while achieving competitive or even superior diagnostic accuracy under common fairness and accuracy metrics, compared to the state-of-the-art. Specifically, we demonstrate improved model generalization ability as evidenced by superior performance on several out-of-distribution (OOD) datasets.
- Abstract(参考訳): 近年の研究では、機械学習(ML)モデルが現実のシナリオに偏りを示し、医療などの倫理的に敏感な領域で重大な課題を提起している。
このようなバイアスは、モデルフェアネス、モデル一般化能力、さらに社会的差別を増幅するリスクに悪影響を及ぼす可能性がある。
トレーニングされたモデルからバイアスを取り除く必要がある。
既存のデバイアスングアプローチは、しばしばオリジナルのトレーニングデータへのアクセスを必要とし、広範囲のモデル再訓練を必要とする。
これらの課題に対処するため,より少ない脱バイアスコストで識別性能を維持しつつ,公平性を効果的に向上する脱バイアスフレームワークであるSoft-Mask Weight Fine-Tuning (SWiFT)を提案する。
特に、SWiFTは、小さな外部データセットと、モデル微調整のごくわずかのエポックしか必要としない。
SWiFTの背景にある考え方は、まず、バイアスと予測性能の両方に対するモデルパラメータの相対的かつ、しかし相違するコントリビューションを見つけることである。
次に、2段階の微調整プロセスが各パラメータを、その寄与によって定義された異なる勾配流で更新する。
4つの皮膚学および2つの胸部X線データセットにまたがる3つのバイアス感受性属性(性別、肌の色、年齢)による広範囲な実験により、SWiFTは、一般的な公正度と精度の指標において、競争力や優れた診断精度を達成しつつ、一貫してモデルのバイアスを低減できることを示した。
具体的には、複数のアウト・オブ・ディストリビューション(OOD)データセットにおいて、優れた性能によって証明されたモデル一般化能力の向上を示す。
関連論文リスト
- BMFT: Achieving Fairness via Bias-based Weight Masking Fine-tuning [17.857930204697983]
Bias-based Weight Masking Fine-Tuning (BMFT) は、訓練されたモデルの公平性を大幅に向上させる新しい後処理手法である。
BMFTはモデルパラメータの上にマスクを生成し、偏りのある予測に最も寄与する重みを効率的に識別する。
4つの皮膚科学データセットと2つの感度特性による実験により、BMFTは診断精度と公正度の両方で既存の最先端(SOTA)技術より優れていることが示された。
論文 参考訳(メタデータ) (2024-08-13T13:36:48Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。