論文の概要: Differential Privacy of Network Parameters from a System Identification Perspective
- arxiv url: http://arxiv.org/abs/2509.20460v2
- Date: Wed, 01 Oct 2025 15:08:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-02 14:33:21.779883
- Title: Differential Privacy of Network Parameters from a System Identification Perspective
- Title(参考訳): システム同定の観点からみたネットワークパラメータの微分プライバシー
- Authors: Andrew Campbell, Anna Scaglione, Hang Liu, Victor Elvira, Sean Peisert, Daniel Arnold,
- Abstract要約: 本稿では,サイバー物理システムシミュレーションの共有において,プライバシシステム識別(SI)攻撃からネットワーク情報を保護するという課題に対処する。
我々は,グラフシフト演算子(GSO)を推定することを目的とした,差分プライベート(DP)の帰納的励起によって駆動されるグラフフィルタの時系列出力として,ネットワーク化された状態のアナリスト観測をモデル化する。
入力にDP機構を適用することで、GSOに対して正式なプライバシー保証が得られ、グラフフィルタのスペクトル特性とノイズ共分散に縛られた$(epsilon,delta)$-DPがリンクされることが示される。
- 参考スコア(独自算出の注目度): 13.731802952294855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the problem of protecting network information from privacy system identification (SI) attacks when sharing cyber-physical system simulations. We model analyst observations of networked states as time-series outputs of a graph filter driven by differentially private (DP) nodal excitations, with the analyst aiming to infer the underlying graph shift operator (GSO). Unlike traditional SI, which estimates system parameters, we study the inverse problem: what assumptions prevent adversaries from identifying the GSO while preserving utility for legitimate analysis. We show that applying DP mechanisms to inputs provides formal privacy guarantees for the GSO, linking the $(\epsilon,\delta)$-DP bound to the spectral properties of the graph filter and noise covariance. More precisely, for DP Gaussian signals, the spectral characteristics of both the filter and noise covariance determine the privacy bound, with smooth filters and low-condition-number covariance yielding greater privacy.
- Abstract(参考訳): 本稿では,サイバー物理システムシミュレーションの共有において,プライバシシステム識別(SI)攻撃からネットワーク情報を保護するという課題に対処する。
我々は,グラフシフト演算子(GSO)を推定することを目的とした,差分プライベート(DP)の帰納的励起によって駆動されるグラフフィルタの時系列出力として,ネットワーク化された状態のアナリスト観測をモデル化する。
システムパラメータを推定する従来のSIとは異なり、正当性解析に有効性を保持しながら、敵がGSOを識別するのを防ぐ仮定として、逆問題を研究する。
入力にDP機構を適用することで、GSOに対して正式なプライバシー保証が得られ、$(\epsilon,\delta)$-DPがグラフフィルタのスペクトル特性とノイズ共分散に結びついていることが示される。
より正確には、DPガウス信号の場合、フィルタとノイズ共分散のスペクトル特性は、スムーズなフィルタと低条件数共分散により、プライバシー境界を決定する。
関連論文リスト
- On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - How Private are DP-SGD Implementations? [61.19794019914523]
2種類のバッチサンプリングを使用する場合、プライバシ分析の間に大きなギャップがあることが示される。
その結果,2種類のバッチサンプリングでは,プライバシ分析の間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-03-26T13:02:43Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Privacy-Preserving Community Detection for Locally Distributed Multiple Networks [11.693304974549893]
多層ブロックモデルにおけるコンセンサスコミュニティの検出と推定のための新しい手法を提案する。
分散スペクトルクラスタリング(ppDSC)と呼ばれる新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-06-27T08:36:13Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation [25.95411320126426]
ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:41:02Z) - Muffliato: Peer-to-Peer Privacy Amplification for Decentralized Optimization and Averaging [20.39986955578245]
ローカルディファレンシャルプライバシ(LDP)の緩和であるペアワイズネットワークディファレンシャルプライバシを導入する。
我々は、局所勾配降下ステップとゴシップ平均化を交互に交互に行う、微分プライベートな分散最適化アルゴリズムを導出する。
我々のアルゴリズムは,グラフ内のノード間距離の関数として,プライバシー保証を増幅することを示す。
論文 参考訳(メタデータ) (2022-06-10T13:32:35Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。