論文の概要: Fair Machine Unlearning: Data Removal while Mitigating Disparities
- arxiv url: http://arxiv.org/abs/2307.14754v1
- Date: Thu, 27 Jul 2023 10:26:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-28 14:50:00.616990
- Title: Fair Machine Unlearning: Data Removal while Mitigating Disparities
- Title(参考訳): Fair Machine Unlearning: 格差を緩和しながらデータを削除する
- Authors: Alex Oesterling, Jiaqi Ma, Flavio P. Calmon, Hima Lakkaraju
- Abstract要約: グループフェアネスを保ちながら、データインスタンスを確実に未学習にすることができる最初のフェアマシンアンラーニング手法を提案する。
本研究では,本手法が公正性目標を維持しつつ,データインスタンスを確実に解き放つことができることを示す理論的結果を得る。
- 参考スコア(独自算出の注目度): 2.8812636105478173
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As public consciousness regarding the collection and use of personal
information by corporations grows, it is of increasing importance that
consumers be active participants in the curation of corporate datasets. In
light of this, data governance frameworks such as the General Data Protection
Regulation (GDPR) have outlined the right to be forgotten as a key principle
allowing individuals to request that their personal data be deleted from the
databases and models used by organizations. To achieve forgetting in practice,
several machine unlearning methods have been proposed to address the
computational inefficiencies of retraining a model from scratch with each
unlearning request. While efficient online alternatives to retraining, it is
unclear how these methods impact other properties critical to real-world
applications, such as fairness. In this work, we propose the first fair machine
unlearning method that can provably and efficiently unlearn data instances
while preserving group fairness. We derive theoretical results which
demonstrate that our method can provably unlearn data instances while
maintaining fairness objectives. Extensive experimentation with real-world
datasets highlight the efficacy of our method at unlearning data instances
while preserving fairness.
- Abstract(参考訳): 企業による個人情報の収集・利用に関する意識が高まるにつれて、企業データセットのキュレーションに消費者が積極的に参加することの重要性が高まっている。
これを踏まえて、GDPR(General Data Protection Regulation)のようなデータガバナンスフレームワークは、個人が個人データを組織が使用するデータベースやモデルから削除するように要求するための重要な原則として、忘れられる権利を概説している。
学習要求毎にモデルをスクラッチから再トレーニングするという計算効率の非効率に対処するために,実際に忘れることを実現するために,いくつかのマシンアンラーニング手法が提案されている。
オンライン再トレーニングの効果的な代替手段であるが、フェアネスのような現実世界のアプリケーションにとって重要な他の特性にどのように影響するかは不明である。
本研究では,グループフェアネスを保ちながら,有効かつ効率的にデータインスタンスを解放できる最初のフェアマシンアンラーニング手法を提案する。
我々は,公平性目標を維持しつつ,データインスタンスを明確化できることを実証する理論的結果を導出する。
実世界のデータセットを用いた広範囲な実験では、公平性を保ちながら、未学習データインスタンスにおける本手法の有効性を強調した。
関連論文リスト
- RESTOR: Knowledge Recovery through Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、望ましくないデータポイントを記憶することができる。
訓練されたモデルからこれらのデータポイントを「消去」することを目的とした、多くの機械学習手法が提案されている。
以下に示す次元に基づいて,機械学習のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - Unlearning with Control: Assessing Real-world Utility for Large Language Model Unlearning [97.2995389188179]
最近の研究は、勾配上昇(GA)を通した大規模言語モデル(LLM)の未学習にアプローチし始めている。
その単純さと効率性にもかかわらず、我々はGAベースの手法が過剰な未学習の傾向に直面することを示唆している。
過剰な未学習の度合いを制御できるいくつかの制御手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Debiasing Machine Unlearning with Counterfactual Examples [31.931056076782202]
我々は、未学習プロセスの背後にある因果要因を分析し、データレベルとアルゴリズムレベルでバイアスを軽減する。
バイアスのあるデータセットによって、忘れるべき知識が消去される、介入に基づくアプローチを導入する。
本手法は,評価指標に基づく既存の機械学習ベースラインよりも優れる。
論文 参考訳(メタデータ) (2024-04-24T09:33:10Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Machine unlearning through fine-grained model parameters perturbation [26.653596302257057]
そこで本研究では,不エクササイズマシンの非学習戦略であるTop-KパラメータとRandom-kパラメータの微粒化を提案する。
また,機械学習の有効性を評価する上での課題にも取り組む。
論文 参考訳(メタデータ) (2024-01-09T07:14:45Z) - Unlearn What You Want to Forget: Efficient Unlearning for LLMs [92.51670143929056]
大規模言語モデル(LLM)は、幅広いテキストデータを事前学習し記憶することで大きな進歩を遂げた。
このプロセスはプライバシー問題やデータ保護規則違反に悩まされる可能性がある。
データ削除後のモデル全体を再トレーニングすることなく、LLMを効率的に更新できる効率的なアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T03:35:59Z) - Random Relabeling for Efficient Machine Unlearning [8.871042314510788]
個人が個人データと関連するデータプライバシ規則を撤回する権利は、機械学習に大きな課題をもたらす。
本研究では,逐次データ削除要求を効率的に処理するためのランダムな学習手法を提案する。
確率分布の類似性に基づく制約の少ない除去証明法も提案する。
論文 参考訳(メタデータ) (2023-05-21T02:37:26Z) - Fairness-Aware Data Valuation for Supervised Learning [4.874780144224057]
本研究では,Fairness-Aware Data vauatiOn (FADO)を提案する。
FADOを不公平化前処理技術の基礎として活用する方法を示す。
提案手法は,最大40ppの公正度を,ベースラインに比べて性能が1pp以下で向上することを示す。
論文 参考訳(メタデータ) (2023-03-29T18:51:13Z) - To Be Forgotten or To Be Fair: Unveiling Fairness Implications of
Machine Unlearning Methods [31.83413902054534]
本研究は,機械の非学習手法について,その妥当性を明らかにするための最初の研究である。
非一様データ削除では、SISAはORTRやAmnesiacMLよりも公正性が高いが、初期トレーニングと均一データ削除は必ずしも3つのメソッドの公平性に影響を与えるわけではない。
論文 参考訳(メタデータ) (2023-02-07T09:48:29Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。