論文の概要: The privacy issue of counterfactual explanations: explanation linkage
attacks
- arxiv url: http://arxiv.org/abs/2210.12051v1
- Date: Fri, 21 Oct 2022 15:44:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 16:26:32.429684
- Title: The privacy issue of counterfactual explanations: explanation linkage
attacks
- Title(参考訳): 反事実的説明のプライバシー問題:説明リンク攻撃
- Authors: Sofie Goethals, Kenneth S\"orensen, David Martens
- Abstract要約: 本稿では、インスタンスベースの戦略をデプロイして、偽説明を見つける際に発生する説明リンク攻撃について紹介する。
このような攻撃に対抗するため、我々はk匿名の偽物説明を提案し、これらのk匿名の偽物説明の有効性を評価するための新しい指標として純粋性を導入する。
この結果から,データセット全体ではなく,k-匿名で説明を行うことが,説明の質に有益であることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Black-box machine learning models are being used in more and more high-stakes
domains, which creates a growing need for Explainable AI (XAI). Unfortunately,
the use of XAI in machine learning introduces new privacy risks, which
currently remain largely unnoticed. We introduce the explanation linkage
attack, which can occur when deploying instance-based strategies to find
counterfactual explanations. To counter such an attack, we propose k-anonymous
counterfactual explanations and introduce pureness as a new metric to evaluate
the validity of these k-anonymous counterfactual explanations. Our results show
that making the explanations, rather than the whole dataset, k- anonymous, is
beneficial for the quality of the explanations.
- Abstract(参考訳): ブラックボックス機械学習モデルは、より多くのハイテイクドメインで使用されているため、説明可能なAI(XAI)の必要性が高まっている。
残念ながら、機械学習におけるXAIの使用には新たなプライバシーリスクが伴う。
本稿では,インスタンスベースの戦略を展開して反事実的説明を見つける際に発生する説明連鎖攻撃について紹介する。
このような攻撃に対抗するために,我々はk匿名の偽物説明を提案し,これらのk匿名の偽物説明の有効性を評価するための新しい指標として純粋性を導入する。
この結果から,データセット全体ではなく,k匿名で説明を行うことが,説明の質に有益であることが示唆された。
関連論文リスト
- Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Incremental XAI: Memorable Understanding of AI with Incremental Explanations [13.460427339680168]
本稿では、人間の認知能力を活用して知識を蓄積し、より詳細な説明をインクリメンタルに受け取り、より詳細な説明を提供することを提案する。
我々はインクリメンタルXAIを導入し、一般的なインスタンスと非典型インスタンスの説明を自動的に分割する。
記憶力は、基本因子を再利用し、非典型例で示される因子の数を減らすことで改善される。
論文 参考訳(メタデータ) (2024-04-10T04:38:17Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - XRand: Differentially Private Defense against Explanation-Guided Attacks [19.682368614810756]
本稿では,局所微分プライバシー(LDP)を実現するための新しい概念を紹介する。
本機構は,説明の忠実さを維持しつつ,敵が最も重要な特徴について学べる情報を制限するものであることを示す。
論文 参考訳(メタデータ) (2022-12-08T18:23:59Z) - On the amplification of security and privacy risks by post-hoc
explanations in machine learning models [7.564511776742979]
インプットディメンションを重要あるいは関連性に応じて強調するポストホックな説明方法もまた、セキュリティとプライバシを弱める情報を漏洩させる。
我々は,同じ成功率のクエリ数を10倍に削減する,説明誘導型ブラックボックス回避攻撃を提案する。
本研究では, 推定勾配の総分散の低減として, 説明からの逆効果を定量化できることを示す。
論文 参考訳(メタデータ) (2022-06-28T13:46:06Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Exploiting Explanations for Model Inversion Attacks [19.91586648726519]
モデル説明からプライベートな画像データを再構成する性能を高め、画像に基づくモデル反転攻撃のリスクを検討する。
我々は,複数のマルチモーダル変換cnnアーキテクチャを開発し,ターゲットモデル予測のみを用いた場合よりも大幅に高いインバージョン性能を実現する。
これらの脅威は、説明の緊急かつ重要なプライバシーリスクを強調し、新しいプライバシー保護技術への注意を呼びかける。
論文 参考訳(メタデータ) (2021-04-26T15:53:57Z) - Model extraction from counterfactual explanations [68.8204255655161]
本稿では, 敵が反実的説明によって提供された情報を利用して, 高精度かつ高精度なモデル抽出攻撃を構築する方法を示す。
我々の攻撃は、敵が相手モデルの忠実なコピーを、その偽説明にアクセスして作成することを可能にする。
論文 参考訳(メタデータ) (2020-09-03T19:02:55Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。