論文の概要: Towards integration of Privacy Enhancing Technologies in Explainable Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2507.04528v1
- Date: Sun, 06 Jul 2025 20:45:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.225388
- Title: Towards integration of Privacy Enhancing Technologies in Explainable Artificial Intelligence
- Title(参考訳): 説明可能な人工知能におけるプライバシ強化技術の統合に向けて
- Authors: Sonal Allana, Rozita Dara, Xiaodong Lin, Pulei Xiong,
- Abstract要約: 我々は,機能ベースのXAI法で提供される説明に対する属性推論に対する防御機構として,プライバシ・エンハンシング・テクノロジー(PET)を探求する。
説明におけるPETの統合により、モデルユーティリティと説明品質を維持しながら攻撃のリスクは49.47%削減された。
- 参考スコア(独自算出の注目度): 3.212506950784342
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) is a crucial pathway in mitigating the risk of non-transparency in the decision-making process of black-box Artificial Intelligence (AI) systems. However, despite the benefits, XAI methods are found to leak the privacy of individuals whose data is used in training or querying the models. Researchers have demonstrated privacy attacks that exploit explanations to infer sensitive personal information of individuals. Currently there is a lack of defenses against known privacy attacks targeting explanations when vulnerable XAI are used in production and machine learning as a service system. To address this gap, in this article, we explore Privacy Enhancing Technologies (PETs) as a defense mechanism against attribute inference on explanations provided by feature-based XAI methods. We empirically evaluate 3 types of PETs, namely synthetic training data, differentially private training and noise addition, on two categories of feature-based XAI. Our evaluation determines different responses from the mitigation methods and side-effects of PETs on other system properties such as utility and performance. In the best case, PETs integration in explanations reduced the risk of the attack by 49.47%, while maintaining model utility and explanation quality. Through our evaluation, we identify strategies for using PETs in XAI for maximizing benefits and minimizing the success of this privacy attack on sensitive personal information.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、ブラックボックス人工知能(AI)システムの意思決定プロセスにおいて、非透明性のリスクを軽減する重要な経路である。
しかし、その利点にもかかわらず、XAI手法は、モデルのトレーニングやクエリにデータが使用される個人のプライバシーを漏洩させる。
研究者は個人の個人情報を推測するために説明を利用するプライバシー攻撃を実証した。
現在、運用システムとして脆弱なXAIが使用されている場合と、サービスシステムとしてマシンラーニングを使用する場合の説明を目的とした、既知のプライバシ攻撃に対する防御が欠如している。
このギャップに対処するため、本稿では、機能ベースのXAIメソッドが提供する説明に対する属性推論に対する防御メカニズムとして、プライバシ・エンハンシング・テクノロジー(PET)について検討する。
特徴量に基づくXAIでは,3種類のPET(合成訓練データ,差分プライベートトレーニング,ノイズ付加)を実験的に評価した。
本評価は,PETの緩和方法と副作用から,実用性や性能など他のシステム特性に対する異なる応答を判定する。
最良の場合、説明書にPETを統合することで、モデルユーティリティと説明品質を維持しながら攻撃のリスクを49.47%削減した。
評価の結果,XAI におけるPET の活用によるメリットの最大化と,機密性の高い個人情報に対するプライバシー攻撃の成功を最小化するための戦略が明らかになった。
関連論文リスト
- Differential Privacy in Machine Learning: From Symbolic AI to LLMs [49.1574468325115]
差別化プライバシは、プライバシーリスクを軽減するための正式なフレームワークを提供する。
単一のデータポイントの包含や除外がアルゴリズムの出力を著しく変更しないことを保証する。
論文 参考訳(メタデータ) (2025-06-13T11:30:35Z) - Study on the Helpfulness of Explainable Artificial Intelligence [0.0]
法律、ビジネス、倫理的要件は、効果的なXAIの使用を動機付けている。
本稿では,ユーザがプロキシタスクをうまく実行する能力を通じて,XAI手法を評価することを提案する。
言い換えれば、人間の意思決定におけるXAIの有用性について論じる。
論文 参考訳(メタデータ) (2024-10-14T14:03:52Z) - Privacy Implications of Explainable AI in Data-Driven Systems [0.0]
機械学習(ML)モデルは、解釈可能性の欠如に悩まされる。
透明性の欠如は、しばしばMLモデルのブラックボックスの性質と呼ばれ、信頼を損なう。
XAI技術は、内部の意思決定プロセスを説明するためのフレームワークと方法を提供することによって、この問題に対処する。
論文 参考訳(メタデータ) (2024-06-22T08:51:58Z) - Privacy-Enhancing Technologies for Artificial Intelligence-Enabled Systems [0.0]
人工知能(AI)モデルは、システムにプライバシーの脆弱性を導入する。
これらの脆弱性は、モデル開発、デプロイメント、推論フェーズの間に存在する。
我々は、AI対応システムを保護するために、いくつかのプライバシー強化技術(PET)の使用を提案する。
論文 参考訳(メタデータ) (2024-04-04T15:14:40Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Privacy Risks in Reinforcement Learning for Household Robots [42.675213619562975]
プライバシーは、ロボットが実質的な個人情報にアクセスすることによって、具体化されたAIの領域における重要な関心事として浮上する。
本稿では,値に基づくアルゴリズムと勾配に基づくアルゴリズムのトレーニングプロセスに対する攻撃を提案し,状態,行動,監督信号の再構成に勾配インバージョンを利用する。
論文 参考訳(メタデータ) (2023-06-15T16:53:26Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。