論文の概要: Easy to Learn, Yet Hard to Forget: Towards Robust Unlearning Under Bias
- arxiv url: http://arxiv.org/abs/2602.21773v1
- Date: Wed, 25 Feb 2026 10:48:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.800957
- Title: Easy to Learn, Yet Hard to Forget: Towards Robust Unlearning Under Bias
- Title(参考訳): 簡単に学べるし、忘れることも難しい:バイアス下でのロバストなアンラーニングを目指して
- Authors: JuneHyoung Kwon, MiHyeon Kim, Eunju Lee, Yoonji Lee, Seunghoon Lee, YoungBin Kim,
- Abstract要約: CUPIDは、異なるバイアスを持つサンプルが、異なるロスランドスケープのシャープネスを示すという観察から着想を得た、新しいアンラーニングフレームワークである。
提案手法はまず, サンプルのシャープネスに基づいて, 誤差セットを因果および偏差近似サブセットに分割し, モデルパラメータを因果経路と偏差経路に分解する。
- 参考スコア(独自算出の注目度): 18.802863823537542
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine unlearning, which enables a model to forget specific data, is crucial for ensuring data privacy and model reliability. However, its effectiveness can be severely undermined in real-world scenarios where models learn unintended biases from spurious correlations within the data. This paper investigates the unique challenges of unlearning from such biased models. We identify a novel phenomenon we term ``shortcut unlearning," where models exhibit an ``easy to learn, yet hard to forget" tendency. Specifically, models struggle to forget easily-learned, bias-aligned samples; instead of forgetting the class attribute, they unlearn the bias attribute, which can paradoxically improve accuracy on the class intended to be forgotten. To address this, we propose CUPID, a new unlearning framework inspired by the observation that samples with different biases exhibit distinct loss landscape sharpness. Our method first partitions the forget set into causal- and bias-approximated subsets based on sample sharpness, then disentangles model parameters into causal and bias pathways, and finally performs a targeted update by routing refined causal and bias gradients to their respective pathways. Extensive experiments on biased datasets including Waterbirds, BAR, and Biased NICO++ demonstrate that our method achieves state-of-the-art forgetting performance and effectively mitigates the shortcut unlearning problem.
- Abstract(参考訳): 特定のデータを忘れることができるマシンアンラーニングは、データのプライバシとモデルの信頼性を確保するために不可欠である。
しかし、その効果は、モデルがデータ内の急激な相関から意図しないバイアスを学習する現実世界のシナリオでひどく損なわれる可能性がある。
本稿では,そのような偏りのあるモデルから学習するアンラーニングの独特な課題について考察する。
モデルが「学習し易く、忘れがたい」傾向を示す現象を「ショートカット・アンラーニング(shortcut unlearning)」と呼ぶ。
具体的には、モデルは容易に学習されたバイアス整合したサンプルを忘れることに苦労する。クラス属性を忘れる代わりに、バイアス属性を解放する。
そこで本研究では、異なるバイアスを持つサンプルが、異なる損失景観のシャープネスを示すという観察から着想を得た、新たな学習フレームワークであるCUPIDを提案する。
提案手法は,まず,サンプルのシャープネスに基づいて,左折セットを因果および偏差近似サブセットに分割し,その後モデルパラメータを因果経路と偏差経路に分解し,各経路に改良された因果および偏差勾配をルーティングすることで目標更新を行う。
Waterbirds, BAR, Biased NICO++などの偏りのあるデータセットに対する大規模な実験により、我々の手法が最先端の忘れパフォーマンスを実現し、ショートカットの未学習問題を効果的に軽減することを示した。
関連論文リスト
- Diffusing DeBias: Synthetic Bias Amplification for Model Debiasing [18.864168501187393]
Diffusing DeBias (DDB) を、教師なしモデルデバイアスの一般的な方法のためのプラグインとして導入する。
具体的には、条件付き拡散モデルを用いて、合成バイアス整合画像を生成する。
補助モデル学習におけるバイアス分散トレーニングサンプルの根本的な問題に対処することにより、提案手法は複数のベンチマークデータセットで最先端のモデルに勝る。
論文 参考訳(メタデータ) (2025-02-13T18:17:03Z) - Model Debiasing by Learnable Data Augmentation [19.625915578646758]
本稿では,トレーニングを正規化可能なデータ拡張戦略を備えた,新しい2段階学習パイプラインを提案する。
合成および現実的なバイアス付きデータセットの実験は、最先端の分類精度を示し、競合する手法より優れている。
論文 参考訳(メタデータ) (2024-08-09T09:19:59Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Data augmentation and explainability for bias discovery and mitigation
in deep learning [0.0]
この論文は、ディープニューラルネットワークにおけるバイアスの影響を調査し、モデルパフォーマンスへの影響を減らす方法を提案する。
最初の部分は、データやモデルのバイアスやエラーの潜在的な原因を分類し、記述することから始まり、特に機械学習パイプラインのバイアスに焦点を当てている。
次の章では、予測と制御を正当化し、モデルを改善する手段として、説明可能なAIの分類と方法について概説する。
論文 参考訳(メタデータ) (2023-08-18T11:02:27Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Evading the Simplicity Bias: Training a Diverse Set of Models Discovers
Solutions with Superior OOD Generalization [93.8373619657239]
SGDで訓練されたニューラルネットワークは最近、線形予測的特徴に優先的に依存することが示された。
この単純さバイアスは、分布外堅牢性(OOD)の欠如を説明することができる。
単純さのバイアスを軽減し,ood一般化を改善できることを実証する。
論文 参考訳(メタデータ) (2021-05-12T12:12:24Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。