論文の概要: Beyond Verification: Abductive Explanations for Post-AI Assessment of Privacy Leakage
- arxiv url: http://arxiv.org/abs/2511.10284v1
- Date: Fri, 14 Nov 2025 01:43:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.795156
- Title: Beyond Verification: Abductive Explanations for Post-AI Assessment of Privacy Leakage
- Title(参考訳): バリデーションを超えて - プライバシ漏洩のAI後評価のための帰納的説明
- Authors: Belona Sonna, Alban Grastien, Claire Benn,
- Abstract要約: 帰納的説明を用いてプライバシー漏洩を監査するための形式的枠組みを提案する。
我々のフレームワークは個人レベルのリークとシステムレベルのリークの両方を形式化する。
このアプローチは、人間の理解可能な説明を生み出しながら、厳格なプライバシー保証を提供する。
- 参考スコア(独自算出の注目度): 4.6453787256723365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy leakage in AI-based decision processes poses significant risks, particularly when sensitive information can be inferred. We propose a formal framework to audit privacy leakage using abductive explanations, which identifies minimal sufficient evidence justifying model decisions and determines whether sensitive information disclosed. Our framework formalizes both individual and system-level leakage, introducing the notion of Potentially Applicable Explanations (PAE) to identify individuals whose outcomes can shield those with sensitive features. This approach provides rigorous privacy guarantees while producing human understandable explanations, a key requirement for auditing tools. Experimental evaluation on the German Credit Dataset illustrates how the importance of sensitive literal in the model decision process affects privacy leakage. Despite computational challenges and simplifying assumptions, our results demonstrate that abductive reasoning enables interpretable privacy auditing, offering a practical pathway to reconcile transparency, model interpretability, and privacy preserving in AI decision-making.
- Abstract(参考訳): AIベースの意思決定プロセスにおけるプライバシリークは、特に機密情報が推測される場合、重大なリスクを引き起こす。
モデル決定を正当化する最小限の証拠を特定し,機密情報を開示するか否かを判断する。
本フレームワークは個人レベルのリークとシステムレベルのリークの両方を形式化し,機密性の高い特徴を持つ人物を保護できる個人を特定するために,潜在的に適用可能な説明(PAE)の概念を導入した。
このアプローチは、監査ツールの重要な要件である人間の理解可能な説明を生成しながら、厳格なプライバシー保証を提供する。
ドイツ信用データセットの実験的評価は、モデル決定プロセスにおけるセンシティブリテラルの重要性が、プライバシの漏洩にどのように影響するかを示している。
計算上の課題や仮定の単純化にもかかわらず、帰納的推論は、プライバシー監査の解釈を可能にし、透明性の整合、解釈可能性のモデル化、AI意思決定におけるプライバシー保護の実践的な経路を提供する。
関連論文リスト
- On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Privacy Reasoning in Ambiguous Contexts [4.766316946591749]
適切な情報開示を推論する言語モデルの能力について検討する。
我々は、プライバシーアセスメントにおいて、コンテキストあいまいさをハイパフォーマンスの重要な障壁とみなす。
論文 参考訳(メタデータ) (2025-06-13T21:42:22Z) - Beyond Jailbreaking: Auditing Contextual Privacy in LLM Agents [43.303548143175256]
本研究では,リスクに対するエージェントの感受性を定量的に評価する,会話プライバシのための監査フレームワークを提案する。
CMPL(Conversational Manipulation for Privacy Leakage)フレームワークは、厳格なプライバシー命令を強制するエージェントをストレステストするために設計されている。
論文 参考訳(メタデータ) (2025-06-11T20:47:37Z) - A False Sense of Privacy: Evaluating Textual Data Sanitization Beyond Surface-level Privacy Leakage [77.83757117924995]
我々は、データリリース時の個人のプライバシーリスクを定量化するために、再識別攻撃を評価する新しいフレームワークを提案する。
本手法は, 衛生データから年齢や物質使用履歴などのセンシティブな属性を推測するために, 一見無害な補助情報を利用できることを示す。
論文 参考訳(メタデータ) (2025-04-28T01:16:27Z) - DePrompt: Desensitization and Evaluation of Personal Identifiable Information in Large Language Model Prompts [11.883785681042593]
DePromptは、プロンプトのための脱感作保護および有効性評価フレームワークである。
我々は、コンテキスト属性を統合し、プライバシタイプを定義し、高精度なPIIエンティティ識別を実現する。
私たちのフレームワークはプロンプトに適応可能で、テキストのユーザビリティに依存したシナリオに拡張できます。
論文 参考訳(メタデータ) (2024-08-16T02:38:25Z) - Differential Privacy for Anomaly Detection: Analyzing the Trade-off Between Privacy and Explainability [4.844901225743574]
我々は、SHAP(SHapley Additive ExPlanations)とDP(差分プライバシー)による説明可能なAI(XAI)の適用のトレードオフを利用する。
以上の結果から,DPによるプライバシの実施が検出精度と説明可能性に重大な影響があることが示唆された。
さらに,説明文の視覚的解釈は,ADアルゴリズムの選択にも影響されていることを示す。
論文 参考訳(メタデータ) (2024-04-09T09:09:36Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。