論文の概要: Topology-Based Reconstruction Prevention for Decentralised Learning
- arxiv url: http://arxiv.org/abs/2312.05248v2
- Date: Thu, 29 Feb 2024 12:36:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 18:00:36.288851
- Title: Topology-Based Reconstruction Prevention for Decentralised Learning
- Title(参考訳): 分散学習のためのトポロジーに基づく再構成防止
- Authors: Florine W. Dekker (1), Zekeriya Erkin (1), Mauro Conti (2 and 1) ((1)
Delft University of Technology, the Netherlands and (2) Universit\`a di
Padova, Italy)
- Abstract要約: プライバシ保存の要約を数回行った結果,受動的に誠実だが正確な敵が,他のユーザのプライベートデータを推測できることが判明した。
本稿では,復興攻撃に対する最初のトポロジに基づく分散型防衛法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decentralised learning has recently gained traction as an alternative to
federated learning in which both data and coordination are distributed over its
users. To preserve data confidentiality, decentralised learning relies on
differential privacy, multi-party computation, or a combination thereof.
However, running multiple privacy-preserving summations in sequence may allow
adversaries to perform reconstruction attacks. Unfortunately, current
reconstruction countermeasures either cannot trivially be adapted to the
distributed setting, or add excessive amounts of noise.
In this work, we first show that passive honest-but-curious adversaries can
infer other users' private data after several privacy-preserving summations.
For example, in subgraphs with 18 users, we show that only three passive
honest-but-curious adversaries succeed at reconstructing private data 11.0% of
the time, requiring an average of 8.8 summations per adversary. The success
rate depends only on the adversaries' direct neighbourhood, independent of the
size of the full network. We consider weak adversaries, who do not control the
graph topology and can exploit neither the inner workings of the summation
protocol nor the specifics of users' data.
We develop a mathematical understanding of how reconstruction relates to
topology and propose the first topology-based decentralised defence against
reconstruction attacks. Specifically, we show that reconstruction requires a
number of adversaries linear in the length of the network's shortest cycle.
Consequently, reconstructing private data from privacy-preserving summations is
impossible in acyclic networks.
Our work is a stepping stone for a formal theory of topology-based
reconstruction defences. Such a theory would generalise our countermeasure
beyond summation, define confidentiality in terms of entropy, and describe the
effects of differential privacy.
- Abstract(参考訳): 分散学習は、データとコーディネーションの両方がユーザ間で分散する連合学習の代替として、最近注目を集めている。
データの機密性を維持するため、分散学習は差分プライバシー、マルチパーティ計算、またはそれらの組み合わせに依存する。
しかし、複数のプライバシ保存サマリーを連続して実行すると、敵がリコンストラクション攻撃を行うことができる。
残念ながら、現在のリコンストラクション対策は分散設定に簡単に適応できないか、あるいは過剰なノイズを加えることができない。
本研究は,プライバシ保存の要約を数回行った結果,受動的に誠実だが正確な敵が,他のユーザのプライベートデータを推測できることを最初に示す。
例えば、18人のユーザを持つサブグラフでは、3人の受動的真正な敵のみが11.0%の時間でプライベートデータを再構築することに成功した。
成功率は、全ネットワークの大きさとは無関係に、敵の直接の近所のみに依存する。
我々は,グラフトポロジを制御せず,要約プロトコルの内部動作やユーザデータの詳細を利用できない弱い敵について考察する。
我々は,再構築がトポロジーとどのように関連しているかを数学的に理解し,再構成攻撃に対する最初のトポロジーベースの分散防御を提案する。
具体的には,ネットワークの最短周期の長さに線形な複数の逆数を必要とすることを示す。
したがって、非循環ネットワークではプライバシー保護の和からプライベートデータを再構築することは不可能である。
我々の研究は、トポロジーに基づく再構築防御の形式理論の足場である。
このような理論は、要約を超えて我々の対策を一般化し、エントロピーの観点から機密性を定義し、微分プライバシーの効果を記述する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Data Reconstruction: When You See It and When You Don't [75.03157721978279]
我々は,2つの補足的な疑問に対処することで,再建攻撃の概念を「サンドウィッチ」することを目指している。
我々は,再建攻撃に対するセキュリティ定義を定式化するために,新たな定義パラダイムであるナルシッソス・レジリエンスを導入する。
論文 参考訳(メタデータ) (2024-05-24T17:49:34Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Understanding Reconstruction Attacks with the Neural Tangent Kernel and
Dataset Distillation [110.61853418925219]
我々は、データセット再構築攻撃のより強力なバージョンを構築し、無限の幅で設定されたエンペントリアルトレーニングを確実に回復する方法を示す。
理論的にも経験的にも再構成された画像は、データセットの「外部」に傾向を示す。
これらのリコンストラクション攻撃は, テクストデータセット蒸留において, 再構成画像上で再トレーニングを行い, 高い予測精度を得ることができる。
論文 参考訳(メタデータ) (2023-02-02T21:41:59Z) - Defending against Reconstruction Attacks with R\'enyi Differential
Privacy [72.1188520352079]
レコンストラクション攻撃により、敵は訓練されたモデルのみにアクセスすることで、トレーニングセットのデータサンプルを再生することができる。
差別化プライバシはこのような攻撃に対する既知の解決策であるが、比較的大きなプライバシ予算で使用されることが多い。
また、同機構により、従来の文献よりも優れた復元攻撃に対するプライバシー保証を導出できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:09:30Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - A Shuffling Framework for Local Differential Privacy [40.92785300658643]
ldpデプロイメントは、敵がノイズ応答をアイデンティティにリンクできるため、推論攻撃に対して脆弱である。
別のモデルであるシャッフルDPは、ノイズ応答をランダムにシャッフルすることでこれを防止している。
雑音応答の体系的なシャッフルは、意味のあるデータ学習性を維持しつつ、特定の推論攻撃を抑えることができることを示す。
論文 参考訳(メタデータ) (2021-06-11T20:36:23Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Fidel: Reconstructing Private Training Samples from Weight Updates in
Federated Learning [0.0]
フェデレーション学習における新しい攻撃手法を評価し,第1次ディセンス層攻撃(Fidel)と名付けた。
完全接続されたニューラルネットワークを用いて、クライアントのモデル更新から30個のプライベートデータサンプルのうち20個を平均して復元する方法を示す。
論文 参考訳(メタデータ) (2021-01-01T04:00:23Z) - Compression Boosts Differentially Private Federated Learning [0.7742297876120562]
フェデレートされた学習により、分散エンティティは、自身のデータを共有することなく、共通のモデルを協調的にトレーニングできる。
悪意のあるエンティティが、捕獲された勾配から参加者のトレーニングデータに関するプライベート情報を学ぶことができるような、さまざまな推論や再構築攻撃に対して脆弱なままである。
本稿では,2つのデータセットを用いて,従来の非私的フェデレート学習方式と比較して,通信コストを最大95%削減できることを示す。
論文 参考訳(メタデータ) (2020-11-10T13:11:03Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。