論文の概要: Fair Machine Unlearning: Data Removal while Mitigating Disparities
- arxiv url: http://arxiv.org/abs/2307.14754v2
- Date: Fri, 16 Feb 2024 01:42:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 20:44:32.805039
- Title: Fair Machine Unlearning: Data Removal while Mitigating Disparities
- Title(参考訳): Fair Machine Unlearning: 格差を緩和しながらデータを削除する
- Authors: Alex Oesterling, Jiaqi Ma, Flavio P. Calmon, Hima Lakkaraju
- Abstract要約: 忘れられる権利は、EUのジェネラル・レギュレーション(ジェネラル・レギュレーション)によって概説される基本原則である。
残ったデータに再トレーニングすることで、ナイーティブに「期待」を達成できる。
学習」は、フェアネスのような現実世界のアプリケーションにとって重要な他の特性に影響を及ぼす。
- 参考スコア(独自算出の注目度): 5.724350004671127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Right to be Forgotten is a core principle outlined by regulatory
frameworks such as the EU's General Data Protection Regulation (GDPR). This
principle allows individuals to request that their personal data be deleted
from deployed machine learning models. While "forgetting" can be naively
achieved by retraining on the remaining dataset, it is computationally
expensive to do to so with each new request. As such, several machine
unlearning methods have been proposed as efficient alternatives to retraining.
These methods aim to approximate the predictive performance of retraining, but
fail to consider how unlearning impacts other properties critical to real-world
applications such as fairness. In this work, we demonstrate that most efficient
unlearning methods cannot accommodate popular fairness interventions, and we
propose the first fair machine unlearning method that can efficiently unlearn
data instances from a fair objective. We derive theoretical results which
demonstrate that our method can provably unlearn data and provably maintain
fairness performance. Extensive experimentation with real-world datasets
highlight the efficacy of our method at unlearning data instances while
preserving fairness.
- Abstract(参考訳): 忘れられる権利は、EUの一般データ保護規則(GDPR)のような規制フレームワークによって概説される中核的な原則である。
この原則により、個人は、デプロイされた機械学習モデルから個人情報を削除することを要求できる。
フォージェッティング”は、残りのデータセットを再トレーニングすることで、ナビケートに実現できるが、新しいリクエスト毎に処理を行うには計算コストがかかる。
このように、再訓練の効率的な代替手段として、いくつかの機械学習手法が提案されている。
これらの手法は再トレーニングの予測性能を近似することを目的としているが、不学習がフェアネスのような現実世界のアプリケーションにとって重要な他の特性にどのように影響するかを考慮しない。
本研究では,最も効率的なアンラーニング手法では一般的なフェアネス介入に対応できないことを実証し,公平な目的からデータインスタンスを効率的にアンラーニングできる最初の公正マシンアンラーニング手法を提案する。
理論的結果から,提案手法がデータを引き出すことができ,公平性を確実に維持できることを示す。
実世界のデータセットを用いた広範囲な実験では、公平性を保ちながら、未学習データインスタンスにおける本手法の有効性を強調した。
関連論文リスト
- Unlearning with Control: Assessing Real-world Utility for Large Language Model Unlearning [97.2995389188179]
最近の研究は、勾配上昇(GA)を通した大規模言語モデル(LLM)の未学習にアプローチし始めている。
その単純さと効率性にもかかわらず、我々はGAベースの手法が過剰な未学習の傾向に直面することを示唆している。
過剰な未学習の度合いを制御できるいくつかの制御手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Debiasing Machine Unlearning with Counterfactual Examples [31.931056076782202]
我々は、未学習プロセスの背後にある因果要因を分析し、データレベルとアルゴリズムレベルでバイアスを軽減する。
バイアスのあるデータセットによって、忘れるべき知識が消去される、介入に基づくアプローチを導入する。
本手法は,評価指標に基づく既存の機械学習ベースラインよりも優れる。
論文 参考訳(メタデータ) (2024-04-24T09:33:10Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Machine unlearning through fine-grained model parameters perturbation [26.653596302257057]
そこで本研究では,不エクササイズマシンの非学習戦略であるTop-KパラメータとRandom-kパラメータの微粒化を提案する。
また,機械学習の有効性を評価する上での課題にも取り組む。
論文 参考訳(メタデータ) (2024-01-09T07:14:45Z) - Unlearn What You Want to Forget: Efficient Unlearning for LLMs [92.51670143929056]
大規模言語モデル(LLM)は、幅広いテキストデータを事前学習し記憶することで大きな進歩を遂げた。
このプロセスはプライバシー問題やデータ保護規則違反に悩まされる可能性がある。
データ削除後のモデル全体を再トレーニングすることなく、LLMを効率的に更新できる効率的なアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T03:35:59Z) - Random Relabeling for Efficient Machine Unlearning [8.871042314510788]
個人が個人データと関連するデータプライバシ規則を撤回する権利は、機械学習に大きな課題をもたらす。
本研究では,逐次データ削除要求を効率的に処理するためのランダムな学習手法を提案する。
確率分布の類似性に基づく制約の少ない除去証明法も提案する。
論文 参考訳(メタデータ) (2023-05-21T02:37:26Z) - Fairness-Aware Data Valuation for Supervised Learning [4.874780144224057]
本研究では,Fairness-Aware Data vauatiOn (FADO)を提案する。
FADOを不公平化前処理技術の基礎として活用する方法を示す。
提案手法は,最大40ppの公正度を,ベースラインに比べて性能が1pp以下で向上することを示す。
論文 参考訳(メタデータ) (2023-03-29T18:51:13Z) - To Be Forgotten or To Be Fair: Unveiling Fairness Implications of
Machine Unlearning Methods [31.83413902054534]
本研究は,機械の非学習手法について,その妥当性を明らかにするための最初の研究である。
非一様データ削除では、SISAはORTRやAmnesiacMLよりも公正性が高いが、初期トレーニングと均一データ削除は必ずしも3つのメソッドの公平性に影響を与えるわけではない。
論文 参考訳(メタデータ) (2023-02-07T09:48:29Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。