論文の概要: Topology-Based Reconstruction Prevention for Decentralised Learning
- arxiv url: http://arxiv.org/abs/2312.05248v3
- Date: Mon, 02 Dec 2024 18:54:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-03 20:23:13.040450
- Title: Topology-Based Reconstruction Prevention for Decentralised Learning
- Title(参考訳): 分散型学習のためのトポロジーに基づく再構成防止
- Authors: Florine W. Dekker, Zekeriya Erkin, Mauro Conti,
- Abstract要約: プライバシ保存の要約を数回行った結果,受動的に誠実だが正確な敵が,他のユーザのプライベートデータを推測できることが判明した。
本稿では,復興攻撃に対する最初のトポロジに基づく分散型防衛法を提案する。
- 参考スコア(独自算出の注目度): 16.09412208373314
- License:
- Abstract: Decentralised learning has recently gained traction as an alternative to federated learning in which both data and coordination are distributed. To preserve the confidentiality of users' data, decentralised learning relies on differential privacy, multi-party computation, or both. However, running multiple privacy-preserving summations in sequence may allow adversaries to perform reconstruction attacks. Current reconstruction countermeasures either cannot trivially be adapted to the distributed setting, or add excessive amounts of noise. In this work, we first show that passive honest-but-curious adversaries can infer other users' private data after several privacy-preserving summations. For example, in subgraphs with 18 users, we show that only three passive honest-but-curious adversaries succeed at reconstructing private data 11.0% of the time, requiring an average of 8.8 summations per adversary. The success rate depends only on the adversaries' direct neighbourhood, and is independent of the size of the full network. We consider weak adversaries that do not control the graph topology, cannot exploit the summation's inner workings, and do not have auxiliary knowledge; and show that these adversaries can still infer private data. We analyse how reconstruction relates to topology and propose the first topology-based decentralised defence against reconstruction attacks. We show that reconstruction requires a number of adversaries linear in the length of the network's shortest cycle. Consequently, exact attacks over privacy-preserving summations are impossible in acyclic networks. Our work is a stepping stone for a formal theory of topology-based decentralised reconstruction defences. Such a theory would generalise our countermeasure beyond summation, define confidentiality in terms of entropy, and describe the interactions with (topology-aware) differential privacy.
- Abstract(参考訳): 分散学習は、データとコーディネーションの両方を分散するフェデレーション学習の代替として、最近注目を集めている。
ユーザのデータの機密性を維持するために、分散学習は、差分プライバシー、複数パーティの計算、あるいはその両方に依存している。
しかし、複数のプライバシ保存和をシーケンスで実行することで、敵が再構築攻撃を行うことができる。
現在の再建対策は、分散環境に自明に適応することも、過剰なノイズを加えることもできない。
本研究は,プライバシ保存の要約を数回行った結果,受動的に誠実だが正確な敵が,他のユーザのプライベートデータを推測できることを最初に示す。
例えば、18人のユーザを持つサブグラフでは、3人の受動的真正な敵のみが11.0%の時間でプライベートデータを再構築することに成功し、1人の敵に対して平均8.8の総和を必要としている。
成功率は敵の直接の近辺にのみ依存し、完全なネットワークのサイズに依存しない。
グラフトポロジを制御せず、和の内的動作を活用できず、補助的な知識も持たない弱い敵を考察し、これらの敵が依然としてプライベートデータを推測できることを示す。
我々は,再建がトポロジとどのように関係しているかを分析し,再建攻撃に対する最初のトポロジに基づく分散型防衛を提案する。
我々は,ネットワークの最短周期の長さに線形な複数の敵を必要とすることを示す。
したがって、非循環ネットワークでは、プライバシー保護の総和に対する正確な攻撃は不可能である。
我々の研究は、トポロジに基づく分散再構築防衛の正式な理論の足掛かりとなっている。
このような理論は、要約を超えた私たちの対策を一般化し、エントロピーの観点から機密性を定義し、(トポロジーを意識した)微分プライバシーとの相互作用を記述する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Data Reconstruction: When You See It and When You Don't [75.03157721978279]
我々は,2つの補足的な疑問に対処することで,再建攻撃の概念を「サンドウィッチ」することを目指している。
我々は,再建攻撃に対するセキュリティ定義を定式化するために,新たな定義パラダイムであるナルシッソス・レジリエンスを導入する。
論文 参考訳(メタデータ) (2024-05-24T17:49:34Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Understanding Reconstruction Attacks with the Neural Tangent Kernel and
Dataset Distillation [110.61853418925219]
我々は、データセット再構築攻撃のより強力なバージョンを構築し、無限の幅で設定されたエンペントリアルトレーニングを確実に回復する方法を示す。
理論的にも経験的にも再構成された画像は、データセットの「外部」に傾向を示す。
これらのリコンストラクション攻撃は, テクストデータセット蒸留において, 再構成画像上で再トレーニングを行い, 高い予測精度を得ることができる。
論文 参考訳(メタデータ) (2023-02-02T21:41:59Z) - Defending against Reconstruction Attacks with R\'enyi Differential
Privacy [72.1188520352079]
レコンストラクション攻撃により、敵は訓練されたモデルのみにアクセスすることで、トレーニングセットのデータサンプルを再生することができる。
差別化プライバシはこのような攻撃に対する既知の解決策であるが、比較的大きなプライバシ予算で使用されることが多い。
また、同機構により、従来の文献よりも優れた復元攻撃に対するプライバシー保証を導出できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:09:30Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - A Shuffling Framework for Local Differential Privacy [40.92785300658643]
ldpデプロイメントは、敵がノイズ応答をアイデンティティにリンクできるため、推論攻撃に対して脆弱である。
別のモデルであるシャッフルDPは、ノイズ応答をランダムにシャッフルすることでこれを防止している。
雑音応答の体系的なシャッフルは、意味のあるデータ学習性を維持しつつ、特定の推論攻撃を抑えることができることを示す。
論文 参考訳(メタデータ) (2021-06-11T20:36:23Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Fidel: Reconstructing Private Training Samples from Weight Updates in
Federated Learning [0.0]
フェデレーション学習における新しい攻撃手法を評価し,第1次ディセンス層攻撃(Fidel)と名付けた。
完全接続されたニューラルネットワークを用いて、クライアントのモデル更新から30個のプライベートデータサンプルのうち20個を平均して復元する方法を示す。
論文 参考訳(メタデータ) (2021-01-01T04:00:23Z) - Compression Boosts Differentially Private Federated Learning [0.7742297876120562]
フェデレートされた学習により、分散エンティティは、自身のデータを共有することなく、共通のモデルを協調的にトレーニングできる。
悪意のあるエンティティが、捕獲された勾配から参加者のトレーニングデータに関するプライベート情報を学ぶことができるような、さまざまな推論や再構築攻撃に対して脆弱なままである。
本稿では,2つのデータセットを用いて,従来の非私的フェデレート学習方式と比較して,通信コストを最大95%削減できることを示す。
論文 参考訳(メタデータ) (2020-11-10T13:11:03Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。