論文の概要: ExclaveFL: Providing Transparency to Federated Learning using Exclaves
- arxiv url: http://arxiv.org/abs/2412.10537v2
- Date: Fri, 01 Aug 2025 12:58:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 14:06:53.307631
- Title: ExclaveFL: Providing Transparency to Federated Learning using Exclaves
- Title(参考訳): ExclaveFL: Exclaveを用いたフェデレーションラーニングへの透明性の提供
- Authors: Jinnan Guo, Kapil Vaswani, Andrew Paverd, Peter Pietzuch,
- Abstract要約: 悪意のあるデータプロバイダは、検出されることなく、適切なトレーニングプロトコルから切り離すことができる。
ExclaveFLは、エンドツーエンドの整合性と透明性を提供するFLプラットフォームである。
実験により、ExclaveFLはTEEのない同じFLフレームワークと比較して10%未満のオーバーヘッドを導入していることがわかった。
- 参考スコア(独自算出の注目度): 5.052848598125723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In federated learning (FL), data providers jointly train a model without disclosing their training data. Despite its inherent privacy benefits, a malicious data provider can simply deviate from the correct training protocol without being detected, potentially compromising the trained model. While current solutions have explored the use of trusted execution environments (TEEs) to combat such attacks, they usually assume side-channel attacks against the TEEs are out of scope. However, such side-channel attacks can undermine the security properties of TEE-based FL frameworks, not by extracting the FL data, but by leaking keys that allow the adversary to impersonate as the TEE whilst deviating arbitrarily from the correct training protocol. We describe ExclaveFL, an FL platform that provides end-to-end integrity and transparency, even in the presence of side-channel attacks on TEEs. We propose a new paradigm in which existing TEEs are used as exclaves -- integrity-protected execution environments that do not contain any secrets, making them immune to side-channel attacks. Whereas previous approaches attest the TEE itself and bind this attestation to a key held by the TEE, ExclaveFL attests individual data transformations at runtime. These runtime attestations form an attested dataflow graph, which can be checked to ensure the FL training job satisfies claims, such as deviations from the correct computation. We implement ExclaveFL by extending the popular NVFlare FL framework to use exclaves, and show experimentally that ExclaveFL introduces less than 10% overhead compared to the same FL framework without TEEs, whilst providing stronger security guarantees.
- Abstract(参考訳): FL(Federated Learning)では、データプロバイダがトレーニングデータを開示することなく、モデルを共同でトレーニングする。
本質的にプライバシー上のメリットがあるにもかかわらず、悪意のあるデータプロバイダは、検出されることなく、トレーニングプロトコルから単に逸脱し、トレーニングされたモデルを妥協する可能性がある。
現在のソリューションでは、このような攻撃に対処するために、信頼できる実行環境(TEE)の使用を検討してきたが、通常は、TEEに対するサイドチャネル攻撃はスコープ外であると仮定している。
しかし、このようなサイドチャネル攻撃は、TEEベースのFLフレームワークのセキュリティ特性を損なう可能性がある。
我々は、TEEに対するサイドチャネル攻撃があっても、エンドツーエンドの整合性と透明性を提供するFLプラットフォームであるExclaveFLについて説明する。
本稿では,既存のTEEをエクスラヴとして使用する新たなパラダイムを提案する。
以前のアプローチでは、TEE自体を検証し、この証明をTEEが保持するキーにバインドしていましたが、ExclaveFLは実行時に個々のデータ変換を検証します。
これらの実行時の検証は、検証されたデータフローグラフを形成し、FLトレーニングジョブが正しい計算から逸脱するような要求を満たすようにチェックすることができる。
我々は,一般的なNVFlare FLフレームワークを拡張してエクスラヴを利用することでExclaveFLを実装し,TEEのない同じFLフレームワークと比較して10%未満のオーバーヘッドを導入し,より強力なセキュリティ保証を提供することを示した。
関連論文リスト
- Boosting Gradient Leakage Attacks: Data Reconstruction in Realistic FL Settings [17.038652036429454]
フェデレートラーニング(FL)は、生データを公開することなく、複数のクライアント間で協調的なモデルトレーニングを可能にする。
FLの中心にあるプライバシーを守る能力は、最近ホットボタンに関する議論のトピックとなった。
本稿では,現実的なFL環境においても,クライアントのデータを効果的に再構築できることを実証的に示す。
論文 参考訳(メタデータ) (2025-06-10T04:17:06Z) - Sparsification Under Siege: Defending Against Poisoning Attacks in Communication-Efficient Federated Learning [9.911465831373423]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
通信効率と毒殺攻撃に対する脆弱性において、大きな課題に直面している。
スパースインデックスマスク検査とモデル更新符号類似性分析を統合した,新しいフェデレート学習フレームワークFLAREを提案する。
論文 参考訳(メタデータ) (2025-04-30T14:59:13Z) - R-TPT: Improving Adversarial Robustness of Vision-Language Models through Test-Time Prompt Tuning [97.49610356913874]
視覚言語モデル(VLM)のためのロバストテスト時プロンプトチューニング(R-TPT)を提案する。
R-TPTは、推論段階における敵攻撃の影響を緩和する。
プラグアンドプレイの信頼性に基づく重み付きアンサンブル戦略を導入し,防御強化を図る。
論文 参考訳(メタデータ) (2025-04-15T13:49:31Z) - BlindFL: Segmented Federated Learning with Fully Homomorphic Encryption [0.0]
Federated Learning(FL)は、エッジデバイス上でAIモデルをトレーニングおよびデプロイするために使用される、プライバシ保護のエッジ・ツー・クラウド技術である。
BlindFLは、クライアントがローカルモデル更新のサブセットを暗号化して送信するグローバルモデルアグリゲーションのためのフレームワークである。
BlindFLは、単一キーFHEベースのFLスキームの最初のクライアントサイドモデル中毒攻撃を著しく阻害する。
論文 参考訳(メタデータ) (2025-01-20T18:42:21Z) - Just a Simple Transformation is Enough for Data Protection in Vertical Federated Learning [83.90283731845867]
我々は、入力データ妥協を目標とする一般的なリスクである特徴再構成攻撃について検討する。
フェデレーションベースのモデルは、最先端の機能再構築攻撃に耐性があることが示される。
論文 参考訳(メタデータ) (2024-12-16T12:02:12Z) - Efficient Byzantine-Robust and Provably Privacy-Preserving Federated Learning [15.561997535532635]
フェデレートラーニング(FL)は、クライアントのプライベートデータを共有せずに、新たな分散ラーニングパラダイムである。
既存のFL守備隊はほとんどが2つの攻撃のうちの1つに対処している。
本稿では,Byzantine-robust とプライバシー保護のための FL 手法であるBPFL を提案する。
論文 参考訳(メタデータ) (2024-07-29T04:55:30Z) - Exploring Federated Learning Dynamics for Black-and-White-Box DNN Traitor Tracing [49.1574468325115]
本稿では,フェデレートラーニングにおける白黒裏切り者追跡の適応について検討する。
以上の結果から,情報漏えいを疑うデータ所有者を識別するコラシオン耐性トレプレクターの追跡は,訓練の初期段階においてもFLフレームワークで可能であることが示唆された。
論文 参考訳(メタデータ) (2024-07-02T09:54:35Z) - URVFL: Undetectable Data Reconstruction Attack on Vertical Federated Learning [9.017014896207442]
既存の悪意のある攻撃は、基礎となるVFLトレーニングタスクを変化させ、受信した勾配と正直なトレーニングで受け取った勾配を比較することで容易に検出できる。
我々は,電流検出機構を回避する新しい攻撃戦略であるURVFLを開発する。
包括的実験により、URVFLは既存の攻撃を著しく上回り、悪意のある攻撃に対するSOTA検出方法を回避することに成功した。
論文 参考訳(メタデータ) (2024-04-30T14:19:06Z) - SPFL: A Self-purified Federated Learning Method Against Poisoning Attacks [12.580891810557482]
フェデレートラーニング(FL)は、プライバシを保存する分散トレーニングデータを引き出す上で魅力的なものだ。
本研究では, ベニグアのクライアントが, 局所的に精製されたモデルの信頼性のある歴史的特徴を活用できる自己浄化FL(SPFL)手法を提案する。
実験により,SPFLは様々な毒殺攻撃に対して,最先端のFL防御に優れることを示した。
論文 参考訳(メタデータ) (2023-09-19T13:31:33Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks [68.20436971825941]
フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
論文 参考訳(メタデータ) (2022-09-08T21:01:42Z) - OLIVE: Oblivious Federated Learning on Trusted Execution Environment
against the risk of sparsification [22.579050671255846]
本研究は,フェデレートラーニングと防衛におけるサーバサイドTEEの脆弱性の分析に焦点をあてる。
まず,メモリアクセスパターンの漏洩を理論的に解析し,スペーサー化勾配のリスクを明らかにする。
第2に、トレーニングデータセット内の機密情報にメモリアクセスパターンをリンクする推論攻撃を考案する。
論文 参考訳(メタデータ) (2022-02-15T03:23:57Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Decepticons: Corrupted Transformers Breach Privacy in Federated Learning
for Language Models [58.631918656336005]
悪意のあるパラメータベクトルを配置することで、プライベートなユーザテキストを明らかにする新たな攻撃を提案する。
FLに対する以前の攻撃とは異なり、攻撃はTransformerアーキテクチャとトークンの埋め込みの両方の特徴を利用する。
論文 参考訳(メタデータ) (2022-01-29T22:38:21Z) - Toward Smart Security Enhancement of Federated Learning Networks [109.20054130698797]
本稿では,フェデレートラーニングネットワーク(FLN)の脆弱性について概説し,毒殺攻撃の概要を紹介する。
FLNのためのスマートセキュリティ強化フレームワークを提案する。
深層強化学習は、良質なトレーニング結果を提供するエッジデバイス(ED)の挙動パターンを学ぶために応用される。
論文 参考訳(メタデータ) (2020-08-19T08:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。