論文の概要: On the Trade-Off between Actionable Explanations and the Right to be
Forgotten
- arxiv url: http://arxiv.org/abs/2208.14137v3
- Date: Wed, 11 Oct 2023 15:34:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 16:19:21.188122
- Title: On the Trade-Off between Actionable Explanations and the Right to be
Forgotten
- Title(参考訳): 行動可能な説明と忘れられる権利とのトレードオフについて
- Authors: Martin Pawelczyk and Tobias Leemann and Asia Biega and Gjergji Kasneci
- Abstract要約: データ削除要求の文脈におけるリコース無効化の問題について検討する。
トレーニングセットから最大2つのデータインスタンスを削除することで、一般的な最先端アルゴリズムによって出力されるすべてのリコースの最大95%を無効化できることを示す。
- 参考スコア(独自算出の注目度): 21.26254644739585
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning (ML) models are increasingly being deployed in
high-stakes applications, policymakers have suggested tighter data protection
regulations (e.g., GDPR, CCPA). One key principle is the "right to be
forgotten" which gives users the right to have their data deleted. Another key
principle is the right to an actionable explanation, also known as algorithmic
recourse, allowing users to reverse unfavorable decisions. To date, it is
unknown whether these two principles can be operationalized simultaneously.
Therefore, we introduce and study the problem of recourse invalidation in the
context of data deletion requests. More specifically, we theoretically and
empirically analyze the behavior of popular state-of-the-art algorithms and
demonstrate that the recourses generated by these algorithms are likely to be
invalidated if a small number of data deletion requests (e.g., 1 or 2) warrant
updates of the predictive model. For the setting of differentiable models, we
suggest a framework to identify a minimal subset of critical training points
which, when removed, maximize the fraction of invalidated recourses. Using our
framework, we empirically show that the removal of as little as 2 data
instances from the training set can invalidate up to 95 percent of all
recourses output by popular state-of-the-art algorithms. Thus, our work raises
fundamental questions about the compatibility of "the right to an actionable
explanation" in the context of the "right to be forgotten", while also
providing constructive insights on the determining factors of recourse
robustness.
- Abstract(参考訳): 機械学習(ML)モデルがハイテイクなアプリケーションにますます導入されているため、政策立案者はより厳格なデータ保護規制(GDPR、CCPAなど)を提案している。
重要な原則の1つは「忘れられる権利」であり、ユーザーがデータを削除する権利を与える。
もうひとつの重要な原則は、アルゴリズムリコースとしても知られる、実行可能な説明の権利であり、ユーザーは不利な決定をリバースすることができる。
現在、これら2つの原則を同時に運用できるかどうかは不明である。
そこで本研究では,データ削除要求の文脈において,リコース無効化の問題を紹介し,検討する。
より具体的には、一般的な最先端アルゴリズムの挙動を理論的かつ実証的に分析し、少数のデータ削除要求(例:1または2)が予測モデルの更新を保証した場合、これらのアルゴリズムによって生成されたリコースが無効になることを示す。
微分可能なモデルの設定のために、重要なトレーニングポイントの最小サブセットを識別するためのフレームワークを提案し、削除されると無効化されたリコースの比率を最大化する。
当社のフレームワークを使用することで、トレーニングセットから最大2つのデータインスタンスを削除することで、ポピュラーな最先端アルゴリズムが出力するリコースの最大95%を無効化できることを実証的に示します。
したがって、本研究は、「忘れられる権利」という文脈における「実行可能な説明の権利」の適合性に関する根本的な疑問を提起するとともに、帰納的堅牢性の決定要因に関する構成的洞察を与える。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - MUSE: Machine Unlearning Six-Way Evaluation for Language Models [109.76505405962783]
言語モデル(LM)は、プライベートおよび著作権のあるコンテンツを含む大量のテキストデータに基づいて訓練される。
総合的な機械学習評価ベンチマークであるMUSEを提案する。
人気のある8つのアンラーニングアルゴリズムがハリー・ポッターの本やニュース記事をいかに効果的に解き放つかをベンチマークする。
論文 参考訳(メタデータ) (2024-07-08T23:47:29Z) - Counterfactual Explanations via Locally-guided Sequential Algorithmic
Recourse [13.95253855760017]
提案するLocalFACEは,現実的かつ実用的な対実的説明を構成するモデルに依存しない手法である。
提案手法は, ユーザのプライバシーを, 行動可能なアルゴリズムによる会話の構築に必要なデータのみを活用することで保護する。
論文 参考訳(メタデータ) (2023-09-08T08:47:23Z) - Towards Bridging the Gaps between the Right to Explanation and the Right
to be Forgotten [14.636997283608414]
説明の権利は、個人がアルゴリズム上の決定に対して実行可能な説明を要求することを可能にする。
忘れられる権利は、組織のすべてのデータベースやモデルからデータを削除するよう要求する権利を与える。
両原理間の緊張を解決するための最初のアルゴリズム的枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-08T19:03:00Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Knowledge is Power: Understanding Causality Makes Legal judgment
Prediction Models More Generalizable and Robust [3.555105847974074]
法的判断予測(LJP)は、限られた法律実務者の労働負担を軽減するために法的支援を行う。
既存の手法の多くは、LJPタスクで微調整された様々な大規模事前学習言語モデルを適用し、一貫した改善を得る。
最先端モデル(SOTA)は,無関係情報(あるいは非因果情報)に基づいて判断予測を行う。
論文 参考訳(メタデータ) (2022-11-06T07:03:31Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Evaluating Machine Unlearning via Epistemic Uncertainty [78.27542864367821]
本研究では,不確実性に基づく機械学習アルゴリズムの評価を行う。
これは私たちの最良の知識の一般的な評価の最初の定義です。
論文 参考訳(メタデータ) (2022-08-23T09:37:31Z) - Robust Predictable Control [149.71263296079388]
提案手法は,従来の手法よりもはるかに厳密な圧縮を実現し,標準的な情報ボトルネックよりも最大5倍高い報酬が得られることを示す。
また,本手法はより堅牢で,新しいタスクをより一般化したポリシーを学習することを示す。
論文 参考訳(メタデータ) (2021-09-07T17:29:34Z) - Bounding Information Leakage in Machine Learning [26.64770573405079]
本稿では,情報漏洩の基本的な境界について検討する。
最悪の会員推論攻撃の成功率を特定し、拘束します。
感度の高い属性とモデルパラメータの間の相互情報の境界を導出する。
論文 参考訳(メタデータ) (2021-05-09T08:49:14Z) - Algorithmic recourse under imperfect causal knowledge: a probabilistic
approach [15.124107808802703]
真の構造方程式にアクセスできることなく、リコースを保証することは不可能であることを示す。
本稿では,限られた因果的知識が与えられた場合,高い確率で会話を遂行する最適な行動を選択するための2つの確率的アプローチを提案する。
論文 参考訳(メタデータ) (2020-06-11T21:19:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。