論文の概要: To Be Forgotten or To Be Fair: Unveiling Fairness Implications of
Machine Unlearning Methods
- arxiv url: http://arxiv.org/abs/2302.03350v2
- Date: Wed, 10 Jan 2024 23:40:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-13 04:17:32.352282
- Title: To Be Forgotten or To Be Fair: Unveiling Fairness Implications of
Machine Unlearning Methods
- Title(参考訳): 忘れられるか、公正になるか - 機械学習手法の公正さを暴露する
- Authors: Dawen Zhang, Shidong Pan, Thong Hoang, Zhenchang Xing, Mark Staples,
Xiwei Xu, Lina Yao, Qinghua Lu, Liming Zhu
- Abstract要約: 本研究は,機械の非学習手法について,その妥当性を明らかにするための最初の研究である。
非一様データ削除では、SISAはORTRやAmnesiacMLよりも公正性が高いが、初期トレーニングと均一データ削除は必ずしも3つのメソッドの公平性に影響を与えるわけではない。
- 参考スコア(独自算出の注目度): 31.83413902054534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The right to be forgotten (RTBF) is motivated by the desire of people not to
be perpetually disadvantaged by their past deeds. For this, data deletion needs
to be deep and permanent, and should be removed from machine learning models.
Researchers have proposed machine unlearning algorithms which aim to erase
specific data from trained models more efficiently. However, these methods
modify how data is fed into the model and how training is done, which may
subsequently compromise AI ethics from the fairness perspective. To help
software engineers make responsible decisions when adopting these unlearning
methods, we present the first study on machine unlearning methods to reveal
their fairness implications. We designed and conducted experiments on two
typical machine unlearning methods (SISA and AmnesiacML) along with a
retraining method (ORTR) as baseline using three fairness datasets under three
different deletion strategies. Experimental results show that under non-uniform
data deletion, SISA leads to better fairness compared with ORTR and AmnesiacML,
while initial training and uniform data deletion do not necessarily affect the
fairness of all three methods. These findings have exposed an important
research problem in software engineering, and can help practitioners better
understand the potential trade-offs on fairness when considering solutions for
RTBF.
- Abstract(参考訳): 忘れられる権利(RTBF)は、過去の行為によって永久に不利になることのない人々の欲求によって動機付けられている。
そのためには、データの削除は深く永続的であり、マシンラーニングモデルから削除する必要がある。
研究者は、訓練されたモデルから特定のデータをより効率的に消去することを目的とした機械学習アルゴリズムを提案している。
しかしながら、これらの方法は、モデルへのデータの供給方法とトレーニングの実施方法を変更し、その後、公正性の観点からAI倫理を損なう可能性がある。
ソフトウェア技術者がこれらの未学習手法を採用する際に責任を負う決定を下すのを助けるために,機械学習手法に関する最初の研究を提示する。
我々は,3つのフェアネスデータセットを3つの削除戦略に基づいてベースラインとして,2つの典型的な機械学習手法(SISAとAmnesiacML)を設計,実施した。
実験結果から,SISAはORTRやAmnesiacMLよりも公平性が高いが,初期トレーニングや均一データ削除は3つの手法の公平性に必ずしも影響しないことがわかった。
これらの発見は、ソフトウェア工学における重要な研究課題を露呈し、rtbfのソリューションを検討する際の公平性に関する潜在的なトレードオフを理解するのに役立つ。
関連論文リスト
- RESTOR: Knowledge Recovery through Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、望ましくないデータポイントを記憶することができる。
訓練されたモデルからこれらのデータポイントを「消去」することを目的とした、多くの機械学習手法が提案されている。
以下に示す次元に基づいて,機械学習のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - Debiasing Machine Unlearning with Counterfactual Examples [31.931056076782202]
我々は、未学習プロセスの背後にある因果要因を分析し、データレベルとアルゴリズムレベルでバイアスを軽減する。
バイアスのあるデータセットによって、忘れるべき知識が消去される、介入に基づくアプローチを導入する。
本手法は,評価指標に基づく既存の機械学習ベースラインよりも優れる。
論文 参考訳(メタデータ) (2024-04-24T09:33:10Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Fair Machine Unlearning: Data Removal while Mitigating Disparities [5.724350004671127]
忘れられる権利は、EUのジェネラル・レギュレーション(ジェネラル・レギュレーション)によって概説される基本原則である。
残ったデータに再トレーニングすることで、ナイーティブに「期待」を達成できる。
学習」は、フェアネスのような現実世界のアプリケーションにとって重要な他の特性に影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-27T10:26:46Z) - Random Relabeling for Efficient Machine Unlearning [8.871042314510788]
個人が個人データと関連するデータプライバシ規則を撤回する権利は、機械学習に大きな課題をもたらす。
本研究では,逐次データ削除要求を効率的に処理するためのランダムな学習手法を提案する。
確率分布の類似性に基づく制約の少ない除去証明法も提案する。
論文 参考訳(メタデータ) (2023-05-21T02:37:26Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - SSSE: Efficiently Erasing Samples from Trained Machine Learning Models [103.43466657962242]
サンプル消去のための効率的かつ効率的なアルゴリズムSSSEを提案する。
ある場合、SSSEは、許可されたデータだけで新しいモデルをスクラッチからトレーニングする最適な、しかし実用的でない金の標準と同様に、サンプルをほぼ消去することができる。
論文 参考訳(メタデータ) (2021-07-08T14:17:24Z) - Certifiable Machine Unlearning for Linear Models [1.484852576248587]
機械学習は、トレーニングされたトレーニングデータのサブセットが削除された後、機械学習(ML)モデルを更新するタスクである。
本稿では,線形モデルに対する3つの非学習手法について実験的に検討する。
論文 参考訳(メタデータ) (2021-06-29T05:05:58Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Leveraging Semi-Supervised Learning for Fairness using Neural Networks [49.604038072384995]
機械学習に基づく意思決定システムの公平性に対する懸念が高まっている。
本稿では,ラベルのないデータから得られるニューラルネットワークを用いた半教師付きアルゴリズムを提案する。
提案したSSFairと呼ばれるモデルは、ラベルのないデータの情報を活用して、トレーニングデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2019-12-31T09:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。