論文の概要: Evaluating Machine Unlearning via Epistemic Uncertainty
- arxiv url: http://arxiv.org/abs/2208.10836v1
- Date: Tue, 23 Aug 2022 09:37:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 13:29:56.928072
- Title: Evaluating Machine Unlearning via Epistemic Uncertainty
- Title(参考訳): てんかん不確実性による機械学習の評価
- Authors: Alexander Becker, Thomas Liebig
- Abstract要約: 本研究では,不確実性に基づく機械学習アルゴリズムの評価を行う。
これは私たちの最良の知識の一般的な評価の最初の定義です。
- 参考スコア(独自算出の注目度): 78.27542864367821
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: There has been a growing interest in Machine Unlearning recently, primarily
due to legal requirements such as the General Data Protection Regulation (GDPR)
and the California Consumer Privacy Act. Thus, multiple approaches were
presented to remove the influence of specific target data points from a trained
model. However, when evaluating the success of unlearning, current approaches
either use adversarial attacks or compare their results to the optimal
solution, which usually incorporates retraining from scratch. We argue that
both ways are insufficient in practice. In this work, we present an evaluation
metric for Machine Unlearning algorithms based on epistemic uncertainty. This
is the first definition of a general evaluation metric for Machine Unlearning
to our best knowledge.
- Abstract(参考訳): 最近、GDPR(General Data Protection Regulation)やカリフォルニア消費者プライバシー法(California Consumer Privacy Act)といった法的要件のために、機械学習への関心が高まっている。
このように、訓練されたモデルから特定のターゲットデータポイントの影響を取り除くために、複数のアプローチが提示された。
しかしながら、未学習の成功を評価する場合、現在のアプローチでは、逆攻撃を使うか、あるいはその結果を最適なソリューションと比較する。
どちらの方法も実際は不十分であると主張する。
本稿では,認識的不確実性に基づく機械学習アルゴリズムの評価指標を提案する。
これは、最高の知識に対する機械学習のための一般的な評価基準の最初の定義です。
関連論文リスト
- Machine unlearning through fine-grained model parameters perturbation [29.1171391789129]
そこで本研究では,不エクササイズマシンの非学習戦略であるTop-KパラメータとRandom-kパラメータの微粒化を提案する。
また,機械学習の有効性を評価する上での課題にも取り組む。
論文 参考訳(メタデータ) (2024-01-09T07:14:45Z) - DUCK: Distance-based Unlearning via Centroid Kinematics [42.642008092347986]
本研究は,Centroid Kinematics (DUCK) による遠隔学習(Distance-based Unlearning)と呼ばれる新しいアンラーニングアルゴリズムを導入する。
アルゴリズムの性能評価は、様々なベンチマークデータセットにまたがって行われる。
対象データを忘れる際の未学習プロセスの有効性だけでなく,元のモデルに対する性能損失の定量化も含む,適応未学習スコア(Adaptive Unlearning Score, AUS)と呼ばれる新しいメトリクスを導入する。
論文 参考訳(メタデータ) (2023-12-04T17:10:25Z) - Sample Complexity of Preference-Based Nonparametric Off-Policy
Evaluation with Deep Networks [58.469818546042696]
我々は、OPEのサンプル効率を人間の好みで研究し、その統計的保証を確立する。
ReLUネットワークのサイズを適切に選択することにより、マルコフ決定過程において任意の低次元多様体構造を活用できることが示される。
論文 参考訳(メタデータ) (2023-10-16T16:27:06Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Towards Unbounded Machine Unlearning [13.31957848633701]
我々は,異なるアプリケーション (RB, RC, UP) に対するアンラーニングを,それぞれ独自のデシラタ,忘れるための定義,および品質を忘れるための関連する指標をもって研究する。
UPでは,非学習者に対する強力なメンバーシップ推論攻撃の新たな適応を提案する。
また、RB, RC, UPの異なるアプリケーション依存メトリクス間で品質を忘れる上で、一貫してトップパフォーマーである新しいアンラーニングアルゴリズムであるSCRUBを提案する。
論文 参考訳(メタデータ) (2023-02-20T10:15:36Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - Coping with Mistreatment in Fair Algorithms [1.2183405753834557]
教師付き学習環境におけるアルゴリズムの公平性を検討し,等価機会指標の分類器最適化の効果を検討する。
このバイアスを軽減するための概念的にシンプルな方法を提案する。
提案手法を厳密に解析し,その効果を示す実世界データセット上で評価する。
論文 参考訳(メタデータ) (2021-02-22T03:26:06Z) - Fair Meta-Learning For Few-Shot Classification [7.672769260569742]
バイアスデータに基づいてトレーニングされた機械学習アルゴリズムは、不公平な予測を行う傾向がある。
本稿では,メタトレイン中のバイアスを効果的に軽減する,高速適応型数ショットメタラーニング手法を提案する。
提案手法は,モデル出力のバイアスを効果的に軽減し,不明瞭なタスクに対して精度と公平性の両方を一般化することを実証的に実証する。
論文 参考訳(メタデータ) (2020-09-23T22:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。