論文の概要: VerifiableFL: Verifiable Claims for Federated Learning using Exclaves
- arxiv url: http://arxiv.org/abs/2412.10537v3
- Date: Wed, 01 Oct 2025 18:03:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:19.655444
- Title: VerifiableFL: Verifiable Claims for Federated Learning using Exclaves
- Title(参考訳): VerifiableFL: Exclaveを使ったフェデレーション学習のための検証可能なクレーム
- Authors: Jinnan Guo, Kapil Vaswani, Andrew Paverd, Peter Pietzuch,
- Abstract要約: FL(Federated Learning)では、データプロバイダがトレーニングデータを共有せずに、マシンラーニングモデルを共同でトレーニングする。
トレーニングされたモデルに関する検証可能なクレームを提供するFLモデルのトレーニングシステムであるVerifiableFLについて述べる。
VerifiableFLは、未保護のFLモデルトレーニングと比較して10%未満のオーバーヘッドを導入している。
- 参考スコア(独自算出の注目度): 3.2107422114960382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In federated learning (FL), data providers jointly train a machine learning model without sharing their training data. This makes it challenging to provide verifiable claims about properties of the final trained FL model, e.g., related to the employed training data, the used data sanitization, or the correct training algorithm -- a malicious data provider can simply deviate from the correct training protocol without being detected. While prior FL training systems have explored the use of trusted execution environments (TEEs) to combat such attacks, existing approaches struggle to link attestation proofs from TEEs robustly and effectively with claims about the trained FL model. TEEs have also been shown to suffer from a wide range of attacks, including side-channel attacks. We describe VerifiableFL, a system for training FL models that provides verifiable claims about trained models with the help of runtime attestation proofs. VerifiableFL generates such proofs using the new abstraction of exclaves, which are integrity-only execution environments without any secrets, thus making them immune to data leakage attacks. Whereas previous approaches only attested whole TEEs statically, i.e., at deployment time, VerifiableFL uses exclaves to attest individual data transformations during FL training. These runtime attestation proofs then form an attested dataflow graph of the entire FL model training computation. The graph can be checked by an auditor to ensure that the trained FL model satisfies its verifiable claims, such as the use of particular data sanitization by data providers or aggregation strategy by the model provider. We implement VerifiableFL by extending NVIDIA's NVFlare FL framework to use exclaves, and show that VerifiableFL introduces less than 10% overhead compared to unprotected FL model training.
- Abstract(参考訳): FL(Federated Learning)では、データプロバイダがトレーニングデータを共有せずに、マシンラーニングモデルを共同でトレーニングする。
これにより、最終的にトレーニングされたFLモデル、例えば、採用したトレーニングデータ、使用済みデータ衛生化、あるいは正しいトレーニングアルゴリズムに関連する、検証可能なクレームの提供が困難になる。
従来のFLトレーニングシステムは、このような攻撃に対抗するために信頼できる実行環境(TEE)の使用を探索してきたが、既存のアプローチでは、TEEからの証明証明を堅牢かつ効果的に、訓練されたFLモデルに関する主張と結びつけるのに苦労している。
TEEはまた、サイドチャネル攻撃を含む幅広い攻撃に苦しむことも示されている。
VerifiableFLは,実行時証明の助けを借りて,トレーニングされたモデルに関する検証可能なクレームを提供する,FLモデルのトレーニングシステムである。
VeribleFLは、秘密のない完全性のみの実行環境であるexlavesの新たな抽象化を使って、このような証明を生成する。
以前のアプローチでは、デプロイ時にTEE全体を静的に検証することしかできなかったが、VerifiableFLはFLトレーニング中に個々のデータ変換を検査するためにエクスラヴを使用する。
これらの実行時検証証明は、FLモデル全体のトレーニング計算の検証されたデータフローグラフを形成する。
トレーニング済みのFLモデルは、データプロバイダによる特定のデータサニタイズの使用やモデルプロバイダによるアグリゲーション戦略など、検証可能なクレームを満たすように監査者によってチェックすることができる。
NVIDIAのNVFlare FLフレームワークをエクスラヴに拡張することで、VerifiableFLを実装し、未保護のFLモデルトレーニングと比較して10%未満のオーバーヘッドを導入することを示す。
関連論文リスト
- Boosting Gradient Leakage Attacks: Data Reconstruction in Realistic FL Settings [17.038652036429454]
フェデレートラーニング(FL)は、生データを公開することなく、複数のクライアント間で協調的なモデルトレーニングを可能にする。
FLの中心にあるプライバシーを守る能力は、最近ホットボタンに関する議論のトピックとなった。
本稿では,現実的なFL環境においても,クライアントのデータを効果的に再構築できることを実証的に示す。
論文 参考訳(メタデータ) (2025-06-10T04:17:06Z) - Sparsification Under Siege: Defending Against Poisoning Attacks in Communication-Efficient Federated Learning [9.911465831373423]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散クライアント間で協調的なモデルトレーニングを可能にする。
通信効率と毒殺攻撃に対する脆弱性において、大きな課題に直面している。
スパースインデックスマスク検査とモデル更新符号類似性分析を統合した,新しいフェデレート学習フレームワークFLAREを提案する。
論文 参考訳(メタデータ) (2025-04-30T14:59:13Z) - R-TPT: Improving Adversarial Robustness of Vision-Language Models through Test-Time Prompt Tuning [97.49610356913874]
視覚言語モデル(VLM)のためのロバストテスト時プロンプトチューニング(R-TPT)を提案する。
R-TPTは、推論段階における敵攻撃の影響を緩和する。
プラグアンドプレイの信頼性に基づく重み付きアンサンブル戦略を導入し,防御強化を図る。
論文 参考訳(メタデータ) (2025-04-15T13:49:31Z) - BlindFL: Segmented Federated Learning with Fully Homomorphic Encryption [0.0]
Federated Learning(FL)は、エッジデバイス上でAIモデルをトレーニングおよびデプロイするために使用される、プライバシ保護のエッジ・ツー・クラウド技術である。
BlindFLは、クライアントがローカルモデル更新のサブセットを暗号化して送信するグローバルモデルアグリゲーションのためのフレームワークである。
BlindFLは、単一キーFHEベースのFLスキームの最初のクライアントサイドモデル中毒攻撃を著しく阻害する。
論文 参考訳(メタデータ) (2025-01-20T18:42:21Z) - Just a Simple Transformation is Enough for Data Protection in Vertical Federated Learning [83.90283731845867]
我々は、入力データ妥協を目標とする一般的なリスクである特徴再構成攻撃について検討する。
フェデレーションベースのモデルは、最先端の機能再構築攻撃に耐性があることが示される。
論文 参考訳(メタデータ) (2024-12-16T12:02:12Z) - Efficient Byzantine-Robust and Provably Privacy-Preserving Federated Learning [15.561997535532635]
フェデレートラーニング(FL)は、クライアントのプライベートデータを共有せずに、新たな分散ラーニングパラダイムである。
既存のFL守備隊はほとんどが2つの攻撃のうちの1つに対処している。
本稿では,Byzantine-robust とプライバシー保護のための FL 手法であるBPFL を提案する。
論文 参考訳(メタデータ) (2024-07-29T04:55:30Z) - Exploring Federated Learning Dynamics for Black-and-White-Box DNN Traitor Tracing [49.1574468325115]
本稿では,フェデレートラーニングにおける白黒裏切り者追跡の適応について検討する。
以上の結果から,情報漏えいを疑うデータ所有者を識別するコラシオン耐性トレプレクターの追跡は,訓練の初期段階においてもFLフレームワークで可能であることが示唆された。
論文 参考訳(メタデータ) (2024-07-02T09:54:35Z) - URVFL: Undetectable Data Reconstruction Attack on Vertical Federated Learning [9.017014896207442]
既存の悪意のある攻撃は、基礎となるVFLトレーニングタスクを変化させ、受信した勾配と正直なトレーニングで受け取った勾配を比較することで容易に検出できる。
我々は,電流検出機構を回避する新しい攻撃戦略であるURVFLを開発する。
包括的実験により、URVFLは既存の攻撃を著しく上回り、悪意のある攻撃に対するSOTA検出方法を回避することに成功した。
論文 参考訳(メタデータ) (2024-04-30T14:19:06Z) - SPFL: A Self-purified Federated Learning Method Against Poisoning Attacks [12.580891810557482]
フェデレートラーニング(FL)は、プライバシを保存する分散トレーニングデータを引き出す上で魅力的なものだ。
本研究では, ベニグアのクライアントが, 局所的に精製されたモデルの信頼性のある歴史的特徴を活用できる自己浄化FL(SPFL)手法を提案する。
実験により,SPFLは様々な毒殺攻撃に対して,最先端のFL防御に優れることを示した。
論文 参考訳(メタデータ) (2023-09-19T13:31:33Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Unraveling the Connections between Privacy and Certified Robustness in
Federated Learning Against Poisoning Attacks [68.20436971825941]
フェデレートラーニング(FL)は、分散ユーザのデータを活用するグローバルモデルを共同でトレーニングするための、効率的なパラダイムを提供する。
いくつかの研究により、FLは毒殺攻撃に弱いことが示されている。
ローカルユーザのプライバシを保護するため、FLは通常、差分プライベートな方法でトレーニングされる。
論文 参考訳(メタデータ) (2022-09-08T21:01:42Z) - OLIVE: Oblivious Federated Learning on Trusted Execution Environment
against the risk of sparsification [22.579050671255846]
本研究は,フェデレートラーニングと防衛におけるサーバサイドTEEの脆弱性の分析に焦点をあてる。
まず,メモリアクセスパターンの漏洩を理論的に解析し,スペーサー化勾配のリスクを明らかにする。
第2に、トレーニングデータセット内の機密情報にメモリアクセスパターンをリンクする推論攻撃を考案する。
論文 参考訳(メタデータ) (2022-02-15T03:23:57Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Decepticons: Corrupted Transformers Breach Privacy in Federated Learning
for Language Models [58.631918656336005]
悪意のあるパラメータベクトルを配置することで、プライベートなユーザテキストを明らかにする新たな攻撃を提案する。
FLに対する以前の攻撃とは異なり、攻撃はTransformerアーキテクチャとトークンの埋め込みの両方の特徴を利用する。
論文 参考訳(メタデータ) (2022-01-29T22:38:21Z) - Toward Smart Security Enhancement of Federated Learning Networks [109.20054130698797]
本稿では,フェデレートラーニングネットワーク(FLN)の脆弱性について概説し,毒殺攻撃の概要を紹介する。
FLNのためのスマートセキュリティ強化フレームワークを提案する。
深層強化学習は、良質なトレーニング結果を提供するエッジデバイス(ED)の挙動パターンを学ぶために応用される。
論文 参考訳(メタデータ) (2020-08-19T08:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。