論文の概要: ExclaveFL: Providing Transparency to Federated Learning using Exclaves
- arxiv url: http://arxiv.org/abs/2412.10537v1
- Date: Fri, 13 Dec 2024 20:20:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:58:05.587781
- Title: ExclaveFL: Providing Transparency to Federated Learning using Exclaves
- Title(参考訳): ExclaveFL: Exclaveを用いたフェデレーションラーニングへの透明性の提供
- Authors: Jinnan Guo, Kapil Vaswani, Andrew Paverd, Peter Pietzuch,
- Abstract要約: ExclaveFLは、攻撃を検出するためのエンドツーエンドの透明性と整合性を実現するFLプラットフォームである。
実験の結果,ExclaveFLは,広範囲な攻撃を検知しながら,9%未満のオーバーヘッドを発生させることがわかった。
- 参考スコア(独自算出の注目度): 5.052848598125723
- License:
- Abstract: In federated learning (FL), data providers jointly train a model without disclosing their training data. Despite its privacy benefits, a malicious data provider can simply deviate from the correct training protocol without being detected, thus attacking the trained model. While current solutions have explored the use of trusted execution environment (TEEs) to combat such attacks, there is a mismatch with the security needs of FL: TEEs offer confidentiality guarantees, which are unnecessary for FL and make them vulnerable to side-channel attacks, and focus on coarse-grained attestation, which does not capture the execution of FL training. We describe ExclaveFL, an FL platform that achieves end-to-end transparency and integrity for detecting attacks. ExclaveFL achieves this by employing a new hardware security abstraction, exclaves, which focus on integrity-only guarantees. ExclaveFL uses exclaves to protect the execution of FL tasks, while generating signed statements containing fine-grained, hardware-based attestation reports of task execution at runtime. ExclaveFL then enables auditing using these statements to construct an attested dataflow graph and then check that the FL training jobs satisfies claims, such as the absence of attacks. Our experiments show that ExclaveFL introduces a less than 9% overhead while detecting a wide-range of attacks.
- Abstract(参考訳): FL(Federated Learning)では、データプロバイダがトレーニングデータを開示することなく、モデルを共同でトレーニングする。
プライバシー上のメリットにもかかわらず、悪意のあるデータプロバイダは、検出されることなく、適切なトレーニングプロトコルから切り離すことができるため、トレーニングされたモデルを攻撃することができる。
現在のソリューションでは、このような攻撃に対処するために、信頼できる実行環境(TEE)の使用を検討しているが、FLのセキュリティ要件とのミスマッチがある。
攻撃検出のためのエンドツーエンドの透明性と整合性を実現するFLプラットフォームであるExclaveFLについて述べる。
ExclaveFLは、完全性のみの保証に焦点を当てた、新しいハードウェアセキュリティ抽象化であるexlavesを使用することで、これを実現している。
ExclaveFLはExplavesを使用してFLタスクの実行を保護し、実行時にタスク実行の詳細なハードウェアベースの検証レポートを含む署名付きステートメントを生成する。
ExclaveFLは、これらのステートメントを使用して監査を行い、検証済みのデータフローグラフを構築し、FLトレーニングジョブがアタックの欠如などのクレームを満たすことを確認します。
実験の結果,ExclaveFLは,広範囲な攻撃を検知しながら,9%未満のオーバーヘッドを発生させることがわかった。
関連論文リスト
- Efficient Byzantine-Robust and Provably Privacy-Preserving Federated Learning [15.561997535532635]
フェデレートラーニング(FL)は、クライアントのプライベートデータを共有せずに、新たな分散ラーニングパラダイムである。
既存のFL守備隊はほとんどが2つの攻撃のうちの1つに対処している。
本稿では,Byzantine-robust とプライバシー保護のための FL 手法であるBPFL を提案する。
論文 参考訳(メタデータ) (2024-07-29T04:55:30Z) - Exploring Federated Learning Dynamics for Black-and-White-Box DNN Traitor Tracing [49.1574468325115]
本稿では,フェデレートラーニングにおける白黒裏切り者追跡の適応について検討する。
以上の結果から,情報漏えいを疑うデータ所有者を識別するコラシオン耐性トレプレクターの追跡は,訓練の初期段階においてもFLフレームワークで可能であることが示唆された。
論文 参考訳(メタデータ) (2024-07-02T09:54:35Z) - Task-Agnostic Privacy-Preserving Representation Learning for Federated Learning Against Attribute Inference Attacks [21.83308540799076]
フェデレートラーニング(FL)は、生データを共有せずに、異なるデバイスからデータを協調的にトレーニングする特性のために、近年広く研究されている。
最近の研究によると、敵は依然としてデバイスのデータ、例えば収入、人種、性的指向などのセンシティブな属性に関する情報を推測することができる。
我々は,属性推論攻撃に対するFL(bf TAPPFL)のタスク依存型プライバシ保護プレゼンテーション学習手法を開発した。
論文 参考訳(メタデータ) (2023-12-12T05:17:34Z) - SPFL: A Self-purified Federated Learning Method Against Poisoning Attacks [12.580891810557482]
フェデレートラーニング(FL)は、プライバシを保存する分散トレーニングデータを引き出す上で魅力的なものだ。
本研究では, ベニグアのクライアントが, 局所的に精製されたモデルの信頼性のある歴史的特徴を活用できる自己浄化FL(SPFL)手法を提案する。
実験により,SPFLは様々な毒殺攻撃に対して,最先端のFL防御に優れることを示した。
論文 参考訳(メタデータ) (2023-09-19T13:31:33Z) - Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks [68.20436971825941]
フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
論文 参考訳(メタデータ) (2022-09-08T21:01:42Z) - OLIVE: Oblivious Federated Learning on Trusted Execution Environment
against the risk of sparsification [22.579050671255846]
本研究は,フェデレートラーニングと防衛におけるサーバサイドTEEの脆弱性の分析に焦点をあてる。
まず,メモリアクセスパターンの漏洩を理論的に解析し,スペーサー化勾配のリスクを明らかにする。
第2に、トレーニングデータセット内の機密情報にメモリアクセスパターンをリンクする推論攻撃を考案する。
論文 参考訳(メタデータ) (2022-02-15T03:23:57Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Decepticons: Corrupted Transformers Breach Privacy in Federated Learning
for Language Models [58.631918656336005]
悪意のあるパラメータベクトルを配置することで、プライベートなユーザテキストを明らかにする新たな攻撃を提案する。
FLに対する以前の攻撃とは異なり、攻撃はTransformerアーキテクチャとトークンの埋め込みの両方の特徴を利用する。
論文 参考訳(メタデータ) (2022-01-29T22:38:21Z) - Toward Smart Security Enhancement of Federated Learning Networks [109.20054130698797]
本稿では,フェデレートラーニングネットワーク(FLN)の脆弱性について概説し,毒殺攻撃の概要を紹介する。
FLNのためのスマートセキュリティ強化フレームワークを提案する。
深層強化学習は、良質なトレーニング結果を提供するエッジデバイス(ED)の挙動パターンを学ぶために応用される。
論文 参考訳(メタデータ) (2020-08-19T08:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。