論文の概要: On the Trade-Off between Actionable Explanations and the Right to be
Forgotten
- arxiv url: http://arxiv.org/abs/2208.14137v1
- Date: Tue, 30 Aug 2022 10:35:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-31 12:45:07.772165
- Title: On the Trade-Off between Actionable Explanations and the Right to be
Forgotten
- Title(参考訳): 行動可能な説明と忘れられる権利とのトレードオフについて
- Authors: Martin Pawelczyk and Tobias Leemann and Asia Biega and Gjergji Kasneci
- Abstract要約: データ削除要求の文脈におけるリコース無効化の問題について検討する。
2つのデータインスタンスの削除は、一般的な最先端アルゴリズムによって出力されるすべてのリコースの最大95%を無効化できることを示す。
- 参考スコア(独自算出の注目度): 12.401331448135263
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning (ML) models are increasingly being deployed in
high-stakes applications, policymakers have suggested tighter data protection
regulations (e.g., GDPR, CCPA). One key principle is the ``right to be
forgotten'' which gives users the right to have their data deleted. Another key
principle is the right to an actionable explanation, also known as algorithmic
recourse, allowing users to reverse unfavorable decisions. To date it is
unknown whether these two principles can be operationalized simultaneously.
Therefore, we introduce and study the problem of recourse invalidation in the
context of data deletion requests. More specifically, we theoretically and
empirically analyze the behavior of popular state-of-the-art algorithms and
demonstrate that the recourses generated by these algorithms are likely to be
invalidated if a small number of data deletion requests (e.g., 1 or 2) warrant
updates of the predictive model. For the setting of linear models and
overparameterized neural networks -- studied through the lens of neural tangent
kernels (NTKs) -- we suggest a framework to identify a minimal subset of
critical training points, which when removed, would lead to maximize the
fraction of invalidated recourses. Using our framework, we empirically
establish that the removal of as little as 2 data instances from the training
set can invalidate up to 95 percent of all recourses output by popular
state-of-the-art algorithms. Thus, our work raises fundamental questions about
the compatibility of ``the right to an actionable explanation'' in the context
of the ``right to be forgotten''.
- Abstract(参考訳): 機械学習(ML)モデルがハイテイクなアプリケーションにますます導入されているため、政策立案者はより厳格なデータ保護規制(GDPR、CCPAなど)を提案している。
一つの重要な原則は ``right to be forget'' であり、ユーザーは自分のデータを削除できる。
もうひとつの重要な原則は、アルゴリズムリコースとしても知られる、実行可能な説明の権利であり、ユーザーは不利な決定をリバースすることができる。
現在、この2つの原則を同時に運用できるかどうかは不明である。
そこで本研究では,データ削除要求の文脈において,リコース無効化の問題を紹介し,検討する。
より具体的には、一般的な最先端アルゴリズムの挙動を理論的かつ実証的に分析し、少数のデータ削除要求(例:1または2)が予測モデルの更新を保証した場合、これらのアルゴリズムによって生成されたリコースが無効になることを示す。
線形モデルや過パラメータ化されたニューラルネットワークの設定 -- ニューラルネットワーク(NTK)のレンズを通して研究されている -- については、重要なトレーニングポイントの最小サブセットを特定するためのフレームワークを提案する。
当社のフレームワークを使用することで、トレーニングセットから最大2つのデータインスタンスを削除することで、ポピュラーな最先端アルゴリズムが出力するリコースの最大95%を無効化できることを実証的に確認しました。
したがって、我々の研究は ``right to be forget''' という文脈における ``the right to an actionable explanation''' の互換性に関する根本的な疑問を提起する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - MUSE: Machine Unlearning Six-Way Evaluation for Language Models [109.76505405962783]
言語モデル(LM)は、プライベートおよび著作権のあるコンテンツを含む大量のテキストデータに基づいて訓練される。
総合的な機械学習評価ベンチマークであるMUSEを提案する。
人気のある8つのアンラーニングアルゴリズムがハリー・ポッターの本やニュース記事をいかに効果的に解き放つかをベンチマークする。
論文 参考訳(メタデータ) (2024-07-08T23:47:29Z) - Counterfactual Explanations via Locally-guided Sequential Algorithmic
Recourse [13.95253855760017]
提案するLocalFACEは,現実的かつ実用的な対実的説明を構成するモデルに依存しない手法である。
提案手法は, ユーザのプライバシーを, 行動可能なアルゴリズムによる会話の構築に必要なデータのみを活用することで保護する。
論文 参考訳(メタデータ) (2023-09-08T08:47:23Z) - Towards Bridging the Gaps between the Right to Explanation and the Right
to be Forgotten [14.636997283608414]
説明の権利は、個人がアルゴリズム上の決定に対して実行可能な説明を要求することを可能にする。
忘れられる権利は、組織のすべてのデータベースやモデルからデータを削除するよう要求する権利を与える。
両原理間の緊張を解決するための最初のアルゴリズム的枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-08T19:03:00Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Knowledge is Power: Understanding Causality Makes Legal judgment
Prediction Models More Generalizable and Robust [3.555105847974074]
法的判断予測(LJP)は、限られた法律実務者の労働負担を軽減するために法的支援を行う。
既存の手法の多くは、LJPタスクで微調整された様々な大規模事前学習言語モデルを適用し、一貫した改善を得る。
最先端モデル(SOTA)は,無関係情報(あるいは非因果情報)に基づいて判断予測を行う。
論文 参考訳(メタデータ) (2022-11-06T07:03:31Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Evaluating Machine Unlearning via Epistemic Uncertainty [78.27542864367821]
本研究では,不確実性に基づく機械学習アルゴリズムの評価を行う。
これは私たちの最良の知識の一般的な評価の最初の定義です。
論文 参考訳(メタデータ) (2022-08-23T09:37:31Z) - Robust Predictable Control [149.71263296079388]
提案手法は,従来の手法よりもはるかに厳密な圧縮を実現し,標準的な情報ボトルネックよりも最大5倍高い報酬が得られることを示す。
また,本手法はより堅牢で,新しいタスクをより一般化したポリシーを学習することを示す。
論文 参考訳(メタデータ) (2021-09-07T17:29:34Z) - Bounding Information Leakage in Machine Learning [26.64770573405079]
本稿では,情報漏洩の基本的な境界について検討する。
最悪の会員推論攻撃の成功率を特定し、拘束します。
感度の高い属性とモデルパラメータの間の相互情報の境界を導出する。
論文 参考訳(メタデータ) (2021-05-09T08:49:14Z) - Algorithmic recourse under imperfect causal knowledge: a probabilistic
approach [15.124107808802703]
真の構造方程式にアクセスできることなく、リコースを保証することは不可能であることを示す。
本稿では,限られた因果的知識が与えられた場合,高い確率で会話を遂行する最適な行動を選択するための2つの確率的アプローチを提案する。
論文 参考訳(メタデータ) (2020-06-11T21:19:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。