論文の概要: Quantifying Privacy Leakage in Split Inference via Fisher-Approximated Shannon Information Analysis
- arxiv url: http://arxiv.org/abs/2504.10016v1
- Date: Mon, 14 Apr 2025 09:19:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:48:26.063625
- Title: Quantifying Privacy Leakage in Split Inference via Fisher-Approximated Shannon Information Analysis
- Title(参考訳): フィッシャー近似シャノン情報解析によるスプリット推論におけるプライバシー漏洩の定量化
- Authors: Ruijun Deng, Zhihui Lu, Qiang Duan,
- Abstract要約: 分割推論(SI)は、ディープニューラルネットワークを分散サブモデルに分割することで、プライバシ保護による協調学習を可能にする。
敵の攻撃防御ゲームに関する広範な研究にもかかわらず、プライバシーリスクの基本的な分析には欠点が残っている。
本稿では,情報理論を用いたプライバシー漏洩定量化の理論的枠組みを確立し,これを敵の確実性として定義し,平均ケースと最悪のエラー境界の両方を導出する。
- 参考スコア(独自算出の注目度): 1.4972864129791565
- License:
- Abstract: Split inference (SI) partitions deep neural networks into distributed sub-models, enabling privacy-preserving collaborative learning. Nevertheless, it remains vulnerable to Data Reconstruction Attacks (DRAs), wherein adversaries exploit exposed smashed data to reconstruct raw inputs. Despite extensive research on adversarial attack-defense games, a shortfall remains in the fundamental analysis of privacy risks. This paper establishes a theoretical framework for privacy leakage quantification using information theory, defining it as the adversary's certainty and deriving both average-case and worst-case error bounds. We introduce Fisher-approximated Shannon information (FSInfo), a novel privacy metric utilizing Fisher Information (FI) for operational privacy leakage computation. We empirically show that our privacy metric correlates well with empirical attacks and investigate some of the factors that affect privacy leakage, namely the data distribution, model size, and overfitting.
- Abstract(参考訳): 分割推論(SI)は、ディープニューラルネットワークを分散サブモデルに分割することで、プライバシ保護による協調学習を可能にする。
それでも、データ再構成攻撃 (DRA) は依然として脆弱であり、敵は流出したデータを悪用して生の入力を再構築する。
敵の攻撃防御ゲームに関する広範な研究にもかかわらず、プライバシーリスクの基本的な分析には欠点が残っている。
本稿では,情報理論を用いたプライバシー漏洩定量化の理論的枠組みを確立し,これを敵の確実性として定義し,平均ケースと最悪のエラー境界の両方を導出する。
本稿では,Fisher Information (FI) を利用した新しいプライバシー指標であるFSInfo(Fisher-approximated Shannon Information)を紹介した。
私たちは、我々のプライバシー基準が経験的攻撃とよく相関していることを実証的に示し、プライバシー漏洩に影響するいくつかの要因、すなわちデータ分散、モデルサイズ、過度な適合について調査します。
関連論文リスト
- Bayes-Nash Generative Privacy Against Membership Inference Attacks [24.330984323956173]
メンバーシップ推論攻撃(MIA)は、個人のデータがデータセットにあるかどうかを判断することで、重大なプライバシーリスクを露呈する。
本研究では,MIAのプライバシ保護をディフェンダーとアタッカー間のベイズゲームとしてモデル化するゲーム理論フレームワークを提案する。
そこで我々は,ベイズ・ナッシュ生成プライバシ(BNGP)を得たディフェンダーのデータ共有ポリシーを呼んだ。
論文 参考訳(メタデータ) (2024-10-09T20:29:04Z) - Differentially Private Data Release on Graphs: Inefficiencies and Unfairness [48.96399034594329]
本稿では,ネットワーク情報公開の文脈における偏見と不公平性に対する差別的プライバシの影響を特徴づける。
ネットワーク構造が全員に知られているネットワークリリースの問題を考えるが、エッジの重みをプライベートにリリースする必要がある。
我々の研究は、これらのネットワーク化された決定問題におけるプライバシーに起因する偏見と不公平性に関する理論的根拠と実証的な証拠を提供する。
論文 参考訳(メタデータ) (2024-08-08T08:37:37Z) - Unveiling Privacy Vulnerabilities: Investigating the Role of Structure in Graph Data [17.11821761700748]
本研究では,ネットワーク構造から生じるプライバシーリスクに対する理解と保護を推し進める。
我々は,ネットワーク構造によるプライバシー漏洩の可能性を評価するための重要なツールとして機能する,新しいグラフプライベート属性推論攻撃を開発した。
攻撃モデルはユーザのプライバシに重大な脅威を与え,グラフデータ公開手法は最適なプライバシとユーティリティのトレードオフを実現する。
論文 参考訳(メタデータ) (2024-07-26T07:40:54Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Visual Privacy Auditing with Diffusion Models [47.0700328585184]
拡散モデル (DM) に基づく再構成攻撃を導入し, 現実画像への逆アクセスを前提としている。
その結果,(1) 実世界の過去のデータが再建の成功に大きく影響していること,(2) 現在の再建境界は, 過去のデータによるリスクをうまくモデル化せず, DMは, プライバシー漏洩を可視化するための監査ツールとして機能することがわかった。
論文 参考訳(メタデータ) (2024-03-12T12:18:55Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Deep Directed Information-Based Learning for Privacy-Preserving Smart
Meter Data Release [30.409342804445306]
本稿では,時系列データとスマートメータ(SM)電力消費測定の文脈における問題点について検討する。
我々は、考慮された設定において、より意味のあるプライバシーの尺度として、指向情報(DI)を導入します。
最悪のシナリオにおけるSMs測定による実世界のデータセットに関する実証的研究は、プライバシとユーティリティの既存のトレードオフを示している。
論文 参考訳(メタデータ) (2020-11-20T13:41:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。