論文の概要: Eluding Secure Aggregation in Federated Learning via Model Inconsistency
- arxiv url: http://arxiv.org/abs/2111.07380v1
- Date: Sun, 14 Nov 2021 16:09:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 17:39:40.235504
- Title: Eluding Secure Aggregation in Federated Learning via Model Inconsistency
- Title(参考訳): モデル不整合による連合学習におけるセキュアアグリゲーションの解明
- Authors: Dario Pasquini, Danilo Francati and Giuseppe Ateniese
- Abstract要約: フェデレートされた学習により、ユーザーはプライベートトレーニングデータセット上でディープニューラルネットワークをトレーニングできる。
悪意のあるサーバは,たとえ後者が存在していなかったとしても,セキュアなアグリゲーションを容易に回避できることを示す。
個別のプライベートトレーニングデータセットに関する情報を推測できる2つの異なる攻撃を考案する。
- 参考スコア(独自算出の注目度): 2.647302105102753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning allows a set of users to train a deep neural network over
their private training datasets. During the protocol, datasets never leave the
devices of the respective users. This is achieved by requiring each user to
send "only" model updates to a central server that, in turn, aggregates them to
update the parameters of the deep neural network. However, it has been shown
that each model update carries sensitive information about the user's dataset
(e.g., gradient inversion attacks).
The state-of-the-art implementations of federated learning protect these
model updates by leveraging secure aggregation: A cryptographic protocol that
securely computes the aggregation of the model updates of the users. Secure
aggregation is pivotal to protect users' privacy since it hinders the server
from learning the value and the source of the individual model updates provided
by the users, preventing inference and data attribution attacks.
In this work, we show that a malicious server can easily elude secure
aggregation as if the latter were not in place. We devise two different attacks
capable of inferring information on individual private training datasets,
independently of the number of users participating in the secure aggregation.
This makes them concrete threats in large-scale, real-world federated learning
applications.
The attacks are generic and do not target any specific secure aggregation
protocol. They are equally effective even if the secure aggregation protocol is
replaced by its ideal functionality that provides the perfect level of
security. Our work demonstrates that secure aggregation has been incorrectly
combined with federated learning and that current implementations offer only a
"false sense of security".
- Abstract(参考訳): フェデレートされた学習により、ユーザーはプライベートトレーニングデータセット上でディープニューラルネットワークをトレーニングできる。
プロトコルの間、データセットは各ユーザのデバイスを離れることはない。
これは、各ユーザが中央サーバに"のみ"モデルの更新を送信し、それを集約して、ディープニューラルネットワークのパラメータを更新することで実現される。
しかしながら、各モデル更新は、ユーザのデータセット(例えば、勾配反転攻撃)に関するセンシティブな情報を運ぶことが示されている。
フェデレートされた学習の最先端の実装は、セキュアなアグリゲーションを活用することによって、これらのモデル更新を保護している。
セキュアアグリゲーションは、サーバがユーザが提供する個々のモデル更新の価値とソースを学ぶのを妨げ、推論とデータ帰属攻撃を防ぐため、ユーザのプライバシを保護する上で重要なものだ。
本研究では,悪意のあるサーバがセキュアなアグリゲーションを容易に回避できることを示す。
セキュアアグリゲーションに参加するユーザ数とは無関係に,個々のプライベートトレーニングデータセットに関する情報を推測可能な2つの攻撃を考案する。
これにより、大規模な実世界のフェデレーション学習アプリケーションにおいて、具体的な脅威となる。
攻撃は汎用的で、特定のセキュアアグリゲーションプロトコルを対象としない。
セキュアアグリゲーションプロトコルが完璧なセキュリティレベルを提供する理想的な機能に置き換えられたとしても、同等に有効です。
私たちの研究は、セキュアアグリゲーションが誤ってフェデレーション学習と組み合わされ、現在の実装は"偽りのセキュリティ感覚"しか提供していないことを示しています。
関連論文リスト
- Uncovering Attacks and Defenses in Secure Aggregation for Federated Deep Learning [17.45950557331482]
フェデレートラーニングは、多様なデータに対するグローバルモデルの協調学習を可能にし、データのローカリティを保ち、ユーザデータを中央サーバに転送する必要をなくす。
セキュアアグリゲーションプロトコルは、ユーザ更新をマスク/暗号化し、中央サーバがマスキングされた情報を集約できるように設計されている。
MicroSecAgg (PoPETS 2024) は,既存のアプローチの通信複雑性を緩和することを目的とした,単一のサーバセキュアアグリゲーションプロトコルを提案する。
論文 参考訳(メタデータ) (2024-10-13T00:06:03Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Reconstructing Individual Data Points in Federated Learning Hardened
with Differential Privacy and Secure Aggregation [36.95590214441999]
Federated Learning(FL)は、機械学習モデルを共同でトレーニングするためのフレームワークである。
分散微分プライバシー(DDP)とセキュアアグリゲーション(SA)で保護されたFLに対する攻撃を提案する。
論文 参考訳(メタデータ) (2023-01-09T18:12:06Z) - Secure Aggregation Is Not All You Need: Mitigating Privacy Attacks with
Noise Tolerance in Federated Learning [0.0]
フェデレーション学習は、AIモデルを作成しながらデータのプライバシを保護することを目的としている。
現在のアプローチは、データのプライバシを保護するためのセキュアなアグリゲーションプロトコルに大きく依存しています。
サーバが完全に悪意を持っていれば生じる可能性のある,セキュアなアグリゲーションに対する脆弱性を調査します。
論文 参考訳(メタデータ) (2022-11-10T05:13:08Z) - Robbing the Fed: Directly Obtaining Private Data in Federated Learning
with Modified Models [56.0250919557652]
フェデレーション学習は、ユーザーのプライバシーと効率を高めるという約束で急速に人気を集めている。
ユーザプライバシに対する以前の攻撃はスコープが限られており、少数のデータポイントに集約されたグラデーション更新にはスケールしない。
共有モデルアーキテクチャの最小限ではあるが悪意のある変更に基づく新しい脅威モデルを導入する。
論文 参考訳(メタデータ) (2021-10-25T15:52:06Z) - Gradient Disaggregation: Breaking Privacy in Federated Learning by
Reconstructing the User Participant Matrix [12.678765681171022]
連合学習におけるモデル更新の集約は安全でない可能性があることを示す。
信頼できない中央サーバは、参加者間のアップデートの合計からユーザ更新を分離することができる。
我々の攻撃は、学習したプロパティの個々のユーザへの属性を許容し、匿名性を侵害する。
論文 参考訳(メタデータ) (2021-06-10T23:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。