論文の概要: A Graph Symmetrisation Bound on Channel Information Leakage under
Blowfish Privacy
- arxiv url: http://arxiv.org/abs/2007.05975v3
- Date: Wed, 13 Oct 2021 12:42:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 05:47:58.313348
- Title: A Graph Symmetrisation Bound on Channel Information Leakage under
Blowfish Privacy
- Title(参考訳): Blowfishのプライバシー下でのチャネル情報漏洩のグラフ対称性
- Authors: Tobias Edwards, Benjamin I. P. Rubinstein, Zuhe Zhang, Sanming Zhou
- Abstract要約: Blowfishのプライバシーは、最近の差分プライバシーの一般化であり、セマンティックな保証でプライバシーポリシーを維持しながら、実用性を改善することができる。
本稿では,Blowfishのプライバシを,通信理論コミュニティからの情報チャネルのプライバシ損失の重要な指標として,ミンエントロピーリーク(min-entropy leakage)について述べる。
- 参考スコア(独自算出の注目度): 12.72658988801038
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Blowfish privacy is a recent generalisation of differential privacy that
enables improved utility while maintaining privacy policies with semantic
guarantees, a factor that has driven the popularity of differential privacy in
computer science. This paper relates Blowfish privacy to an important measure
of privacy loss of information channels from the communications theory
community: min-entropy leakage. Symmetry in an input data neighbouring relation
is central to known connections between differential privacy and min-entropy
leakage. But while differential privacy exhibits strong symmetry, Blowfish
neighbouring relations correspond to arbitrary simple graphs owing to the
framework's flexible privacy policies. To bound the min-entropy leakage of
Blowfish-private mechanisms we organise our analysis over symmetrical
partitions corresponding to orbits of graph automorphism groups. A construction
meeting our bound with asymptotic equality demonstrates tightness.
- Abstract(参考訳): Blowfishのプライバシーは最近のディファレンシャルプライバシの一般化であり、セマンティックな保証でプライバシーポリシーを維持しながら実用性を向上させることができる。
本稿では,Blowfishのプライバシを,通信理論コミュニティからの情報チャネルのプライバシ損失の重要な指標であるmin-entropy leakageに関連付ける。
入力データの隣り合う関係における対称性は、差分プライバシーとミニエントロピーリークの間の既知の接続の中心である。
しかし、差分プライバシーは強い対称性を示すが、Blowfishの近隣関係はフレームワークの柔軟なプライバシーポリシーのために任意の単純なグラフに対応している。
Blowfish-private 機構の min-エントロピーリークを束縛するために、グラフ自己同型群の軌道に対応する対称的な分割を解析する。
漸近的平等に縛られた建設は厳密さを示している。
関連論文リスト
- Group Decision-Making among Privacy-Aware Agents [2.88268082568407]
個人のプライバシーを維持し、効果的な社会学習を可能にすることはどちらも重要なデシダータであるが、基本的には互いに相反しているように見える。
差分プライバシー(DP)に基づく厳密な統計的保証を用いて情報漏洩を制御する。
その結果,グループ意思決定の結果の質,学習精度,通信コスト,エージェントが備えているプライバシー保護の水準の両面でのトレードオフの性質が明らかになった。
論文 参考訳(メタデータ) (2024-02-13T01:38:01Z) - Differentially Private Decentralized Learning with Random Walks [8.379286663107845]
ランダムウォークアルゴリズムを用いて分散学習のプライバシー保証を特徴付ける。そこでは、あるノードから別のノードへ通信グラフのエッジに沿って移動することで、モデルを更新する。
その結果、ランダムウォークアルゴリズムは、互いに近接するノードに対するゴシップアルゴリズムよりも、より優れたプライバシ保証をもたらす傾向があることが明らかとなった。
論文 参考訳(メタデータ) (2024-02-12T08:16:58Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation [25.95411320126426]
ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:41:02Z) - Muffliato: Peer-to-Peer Privacy Amplification for Decentralized
Optimization and Averaging [2.294014185517203]
ローカルディファレンシャルプライバシ(LDP)の緩和であるペアワイズネットワークディファレンシャルプライバシを導入する。
我々は、局所勾配降下ステップとゴシップ平均化を交互に交互に行う、微分プライベートな分散最適化アルゴリズムを導出する。
我々のアルゴリズムは,グラフ内のノード間距離の関数として,プライバシー保証を増幅することを示す。
論文 参考訳(メタデータ) (2022-06-10T13:32:35Z) - Gromov-Wasserstein Discrepancy with Local Differential Privacy for
Distributed Structural Graphs [7.4398547397969494]
本稿では,グラフニューラルネットワークから学習したノード埋め込みのGW差分を分析するためのプライバシー保護フレームワークを提案する。
我々の実験は,$varilon$-LDPアルゴリズムによって保証される強力なプライバシー保護により,提案フレームワークがグラフ学習におけるプライバシを保存するだけでなく,GW距離下でのノイズ構造指標も提示することを示した。
論文 参考訳(メタデータ) (2022-02-01T23:32:33Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。