論文の概要: Bias-Aware Machine Unlearning: Towards Fairer Vision Models via Controllable Forgetting
- arxiv url: http://arxiv.org/abs/2509.07456v1
- Date: Tue, 09 Sep 2025 07:25:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.204594
- Title: Bias-Aware Machine Unlearning: Towards Fairer Vision Models via Controllable Forgetting
- Title(参考訳): Bias-Aware Machine Unlearning:制御可能な推論によるより公平なビジョンモデルを目指して
- Authors: Sai Siddhartha Chary Aylapuram, Veeraraju Elluru, Shivang Agarwal,
- Abstract要約: ディープニューラルネットワークはトレーニングデータに急激な相関関係に依存することが多く、医療や自動運転といった安全クリティカルな領域ではバイアスや不公平な予測が生じる。
機械学習の最近の進歩は、ポストホックモデルの修正に有望な代替手段を提供する。
- 参考スコア(独自算出の注目度): 3.1959623025848405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks often rely on spurious correlations in training data, leading to biased or unfair predictions in safety-critical domains such as medicine and autonomous driving. While conventional bias mitigation typically requires retraining from scratch or redesigning data pipelines, recent advances in machine unlearning provide a promising alternative for post-hoc model correction. In this work, we investigate \textit{Bias-Aware Machine Unlearning}, a paradigm that selectively removes biased samples or feature representations to mitigate diverse forms of bias in vision models. Building on privacy-preserving unlearning techniques, we evaluate various strategies including Gradient Ascent, LoRA, and Teacher-Student distillation. Through empirical analysis on three benchmark datasets, CUB-200-2011 (pose bias), CIFAR-10 (synthetic patch bias), and CelebA (gender bias in smile detection), we demonstrate that post-hoc unlearning can substantially reduce subgroup disparities, with improvements in demographic parity of up to \textbf{94.86\%} on CUB-200, \textbf{30.28\%} on CIFAR-10, and \textbf{97.37\%} on CelebA. These gains are achieved with minimal accuracy loss and with methods scoring an average of 0.62 across the 3 settings on the joint evaluation of utility, fairness, quality, and privacy. Our findings establish machine unlearning as a practical framework for enhancing fairness in deployed vision systems without necessitating full retraining.
- Abstract(参考訳): ディープニューラルネットワークはトレーニングデータに急激な相関関係に依存することが多く、医療や自動運転といった安全クリティカルな領域ではバイアスや不公平な予測が生じる。
従来のバイアス緩和は通常、スクラッチから再トレーニングやデータパイプラインの再設計を必要とするが、最近の機械学習の進歩は、ポストホックモデルの修正に有望な代替手段を提供する。
本研究では,視覚モデルにおける多様なバイアスを緩和するために,バイアス付きサンプルや特徴表現を選択的に除去するパラダイムである「textit{Bias-Aware Machine Unlearning}」について検討する。
プライバシ保護の未学習技術に基づいて, グラディエント・アセント, LoRA, 教師-ストーデント蒸留など, 様々な手法の評価を行った。
CUB-200-2011(synthetic patch bias)、CIFAR-10(synthetic patch bias)、CelebA(synthetic patch bias)、CelebA(synthetic patch bias)の3つのベンチマークデータセットの実証分析を通じて、ポストホック未学習は、CUB-200における \textbf{94.86\%}、CIFAR-10における \textbf{30.28\%}、CelebAにおける \textbf{97.37\%}の人口格差を大幅に低減できることを示した。
これらの利得は、最小限の精度の損失と、実用性、公正性、品質、プライバシの3つの共同評価において平均0.62のスコアで達成される。
本研究は、フルリトレーニングを必要とせず、デプロイされた視覚システムにおける公平性を高めるための実践的な枠組みとして機械学習を確立した。
関連論文リスト
- BOOST: Out-of-Distribution-Informed Adaptive Sampling for Bias Mitigation in Stylistic Convolutional Neural Networks [8.960561031294727]
AIにおけるバイアスは、分類を描く上で重要な課題を示しており、これらのシステムがアートキュレーションや修復といったタスクにますます統合されるにつれて、より深刻なものになっている。
BOOSTと呼ばれる新しいOODインフォームドモデルバイアス適応サンプリング法を提案する。
提案したKaoKoreデータセットとPACSデータセットに対するアプローチを評価する。
論文 参考訳(メタデータ) (2025-07-08T22:18:36Z) - Privacy-Preserved Automated Scoring using Federated Learning for Educational Research [1.2556373621040728]
本稿では,教育評価の自動評価のための統合学習(FL)フレームワークを提案する。
我々は,2つの最先端FL手法と集中学習ベースラインに対して,我々のモデルをベンチマークする。
その結果,本モデルが最も精度が高い(94.5%)ことが示唆された。
論文 参考訳(メタデータ) (2025-03-12T19:06:25Z) - ALBAR: Adversarial Learning approach to mitigate Biases in Action Recognition [52.537021302246664]
行動認識モデルは、しばしば背景バイアス(背景の手がかりに基づく行動の推測)と前景バイアス(主題の外観に依存する)に悩まされる。
本稿では,前景や背景のバイアスを,バイアス特性の専門知識を必要とせずに軽減する,新たな対人訓練手法であるALBARを提案する。
我々は,提案手法を確立された背景と前景のバイアスプロトコル上で評価し,新しい最先端のバイアスプロトコルを設定し,HMDB51では12%以上のデバイアス性能を向上した。
論文 参考訳(メタデータ) (2025-01-31T20:47:06Z) - Neural Corrective Machine Unranking [3.2340528215722553]
正解法を定式化し、新しい教師学生の枠組みである正解法無依存蒸留(CuRD)を提案する。
CuRDは、(訓練された)ニューラルIRモデルを調整することで、その出力関連スコアが低レベルの非検索可能なサンプルを模倣するように、忘れることを容易にする。
トレーニングデータセットの1%と20%のセットサイズを忘れる実験は、CuRDが忘れと修正の点で7つの最先端のベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2024-11-13T12:19:46Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Fair Meta-Learning For Few-Shot Classification [7.672769260569742]
バイアスデータに基づいてトレーニングされた機械学習アルゴリズムは、不公平な予測を行う傾向がある。
本稿では,メタトレイン中のバイアスを効果的に軽減する,高速適応型数ショットメタラーニング手法を提案する。
提案手法は,モデル出力のバイアスを効果的に軽減し,不明瞭なタスクに対して精度と公平性の両方を一般化することを実証的に実証する。
論文 参考訳(メタデータ) (2020-09-23T22:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。