論文の概要: Privacy-Preserving Explainable AIoT Application via SHAP Entropy Regularization
- arxiv url: http://arxiv.org/abs/2511.09775v1
- Date: Fri, 14 Nov 2025 01:09:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.479302
- Title: Privacy-Preserving Explainable AIoT Application via SHAP Entropy Regularization
- Title(参考訳): SHAPエントロピー規則化によるプライバシー保護型説明可能なAIoTアプリケーション
- Authors: Dilli Prasad Sharma, Xiaowei Sun, Liang Xue, Xiaodong Lin, Pulei Xiong,
- Abstract要約: 説明可能なAIoTアプリケーションにおけるプライバシー漏洩を軽減するため,SHAPエントロピー規則化に基づくプライバシ保護手法を提案する。
我々は、モデル説明出力を戦略的に活用して機密情報を推測するSHAPベースのプライバシ攻撃群を開発した。
- 参考スコア(独自算出の注目度): 5.35811141279537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread integration of Artificial Intelligence of Things (AIoT) in smart home environments has amplified the demand for transparent and interpretable machine learning models. To foster user trust and comply with emerging regulatory frameworks, the Explainable AI (XAI) methods, particularly post-hoc techniques such as SHapley Additive exPlanations (SHAP), and Local Interpretable Model-Agnostic Explanations (LIME), are widely employed to elucidate model behavior. However, recent studies have shown that these explanation methods can inadvertently expose sensitive user attributes and behavioral patterns, thereby introducing new privacy risks. To address these concerns, we propose a novel privacy-preserving approach based on SHAP entropy regularization to mitigate privacy leakage in explainable AIoT applications. Our method incorporates an entropy-based regularization objective that penalizes low-entropy SHAP attribution distributions during training, promoting a more uniform spread of feature contributions. To evaluate the effectiveness of our approach, we developed a suite of SHAP-based privacy attacks that strategically leverage model explanation outputs to infer sensitive information. We validate our method through comparative evaluations using these attacks alongside utility metrics on benchmark smart home energy consumption datasets. Experimental results demonstrate that SHAP entropy regularization substantially reduces privacy leakage compared to baseline models, while maintaining high predictive accuracy and faithful explanation fidelity. This work contributes to the development of privacy-preserving explainable AI techniques for secure and trustworthy AIoT applications.
- Abstract(参考訳): スマートホーム環境における人工知能(AIoT)の広範な統合は、透明で解釈可能な機械学習モデルの需要を増幅している。
ユーザの信頼を高め、新たな規制フレームワークに従うために、説明可能なAI(XAI)メソッド、特にSHAP(SHapley Additive ExPlanations)やLIME(Local Interpretable Model-Agnostic Explanations)といったポストホックなテクニックが、モデル行動の解明に広く使用されている。
しかし、近年の研究では、これらの説明手法は機密性の高いユーザー属性や行動パターンを不注意に暴露し、新たなプライバシーリスクを生じさせることが示されている。
これらの問題に対処するため、説明可能なAIoTアプリケーションにおけるプライバシー漏洩を軽減するため、SHAPエントロピー規則化に基づく新たなプライバシ保護手法を提案する。
本手法は,訓練中に低エントロピーSHAP属性分布をペナルティ化するエントロピーに基づく正規化目標を組み込んだもので,より均一なコントリビューションの普及を促進する。
提案手法の有効性を評価するために,モデル説明出力を戦略的に活用して機密情報を推測するSHAPベースのプライバシ攻撃群を開発した。
スマートホームエネルギー消費データセットのベンチマークにおいて,これらの攻撃とユーティリティ指標を併用して比較評価を行い,本手法の有効性を検証した。
実験結果から,SHAPエントロピー規則化は,高い予測精度と忠実な説明精度を維持しつつ,ベースラインモデルに比べてプライバシー漏洩を著しく低減することが示された。
この研究は、セキュアで信頼性の高いAIoTアプリケーションのための、プライバシ保護可能な説明可能なAI技術の開発に寄与する。
関連論文リスト
- On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Technical Report for the Forgotten-by-Design Project: Targeted Obfuscation for Machine Learning [0.03749861135832072]
本稿では、従来のデータ消去手法と対比して、AIシステム内でのRTBF(Right to be Forgotten)の概念について考察する。
Forgotten by Designは,インスタンス固有の難読化技術を統合した,プライバシ保護のための積極的なアプローチである。
CIFAR-10データセットを用いた実験では,モデル精度を維持しながら,少なくとも1桁のプライバシーリスクを低減できることが示されている。
論文 参考訳(メタデータ) (2025-01-20T15:07:59Z) - How Breakable Is Privacy: Probing and Resisting Model Inversion Attacks in Collaborative Inference [13.453033795109155]
協調推論は、中間機能をクラウドモデルに伝達することでエッジデバイスの計算効率を向上させる。
モデル逆攻撃(MIA)の難しさを評価するための確立された基準はない。
本稿では、CIにおけるMIAの難易度を評価するための最初の理論的基準を提案し、相互情報、エントロピー、有効情報量などを重要な要因として同定する。
論文 参考訳(メタデータ) (2025-01-01T13:00:01Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Enhancing Security in Federated Learning through Adaptive
Consensus-Based Model Update Validation [2.28438857884398]
本稿では,ラベルフリップ攻撃に対して,FL(Federated Learning)システムを構築するための高度なアプローチを提案する。
本稿では,適応的しきい値設定機構と統合されたコンセンサスに基づく検証プロセスを提案する。
以上の結果から,FLシステムのレジリエンスを高め,ラベルフリップ攻撃の顕著な緩和効果が示唆された。
論文 参考訳(メタデータ) (2024-03-05T20:54:56Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。