論文の概要: Securing Private Federated Learning in a Malicious Setting: A Scalable TEE-Based Approach with Client Auditing
- arxiv url: http://arxiv.org/abs/2509.08709v2
- Date: Thu, 11 Sep 2025 03:44:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 11:47:11.90725
- Title: Securing Private Federated Learning in a Malicious Setting: A Scalable TEE-Based Approach with Client Auditing
- Title(参考訳): 悪意のある環境でのプライベートフェデレーション学習の確保 - クライアント監査によるスケーラブルなTEEベースのアプローチ
- Authors: Shun Takagi, Satoshi Hasegawa,
- Abstract要約: プライバシー保護手法として,DP-FTRL(disferiallyly private follow-the-regularized-leader)が登場している。
既存のアプローチでは、半正直なサーバを前提としており、この仮定を安全に削除するという課題には対処していない。
本稿では,不正にセキュアなDP-FTRLを実現するために,信頼性の高いコンピューティング基盤として機能するサーバ拡張を提案する。
- 参考スコア(独自算出の注目度): 0.9310318514564272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In cross-device private federated learning, differentially private follow-the-regularized-leader (DP-FTRL) has emerged as a promising privacy-preserving method. However, existing approaches assume a semi-honest server and have not addressed the challenge of securely removing this assumption. This is due to its statefulness, which becomes particularly problematic in practical settings where clients can drop out or be corrupted. While trusted execution environments (TEEs) might seem like an obvious solution, a straightforward implementation can introduce forking attacks or availability issues due to state management. To address this problem, our paper introduces a novel server extension that acts as a trusted computing base (TCB) to realize maliciously secure DP-FTRL. The TCB is implemented with an ephemeral TEE module on the server side to produce verifiable proofs of server actions. Some clients, upon being selected, participate in auditing these proofs with small additional communication and computational demands. This extension solution reduces the size of the TCB while maintaining the system's scalability and liveness. We provide formal proofs based on interactive differential privacy, demonstrating privacy guarantee in malicious settings. Finally, we experimentally show that our framework adds small constant overhead to clients in several realistic settings.
- Abstract(参考訳): デバイス横断型プライベートフェデレーション学習において,DP-FTRLは将来性のあるプライバシ保護手法として出現している。
しかし、既存のアプローチでは、この仮定を安全に取り除くという課題に対処していない。
これは、クライアントがドロップアウトしたり、破損したりできるような現実的な環境では特に問題になる、ステートフルさによるものだ。
信頼できる実行環境(TEEs)は明らかな解決策に思えるかも知れませんが、簡単な実装では、状態管理によるフォーク攻撃や可用性の問題を導入できます。
この問題に対処するため,本論文では,不正にセキュアなDP-FTRLを実現するために,信頼コンピューティング基盤(TCB)として機能するサーバエクステンションを提案する。
TCBはサーバ側の一時的なTEEモジュールで実装され、サーバアクションの検証可能な証明を生成する。
選択されたクライアントは、これらの証明を小さな追加の通信と計算要求で監査する。
この拡張ソリューションは、システムのスケーラビリティと活力を維持しながら、TCBのサイズを減らす。
我々は、対話的な差分プライバシーに基づく正式な証明を提供し、悪意のある設定でプライバシーを保証する。
最後に、我々のフレームワークは、いくつかの現実的な設定において、クライアントに小さな一定のオーバーヘッドを追加することを実験的に示す。
関連論文リスト
- VFEFL: Privacy-Preserving Federated Learning against Malicious Clients via Verifiable Functional Encryption [3.329039715890632]
フェデレートラーニング(Federated Learning)は、ローカルクライアントデータを公開せずに協調的なモデルトレーニングを可能にする、有望な分散学習パラダイムである。
フェデレーション学習の分散した性質は、悪意のあるクライアントによる攻撃に対して特に脆弱である。
本稿では,検証可能な機能暗号化に基づくプライバシ保護型フェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-15T13:38:40Z) - PWC-MoE: Privacy-Aware Wireless Collaborative Mixture of Experts [59.5243730853157]
クラウドサーバにホストされる大規模言語モデル(LLM)は、ローカルデバイス上の計算とストレージの負担を軽減するが、プライバシの懸念を高める。
小規模言語モデル(SLM)は、ローカルで実行されるためプライバシーが向上するが、複雑なタスクではパフォーマンスが制限される。
帯域幅制約下での計算コスト,性能,プライバシ保護のバランスをとるために,プライバシを意識したPWC-MoE(PWC-MoE)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-13T16:27:07Z) - Optimizing Cross-Client Domain Coverage for Federated Instruction Tuning of Large Language Models [87.49293964617128]
大規模言語モデル(LLM)のためのFedDIT(Federated Domain-specific instruction tuning)は、分散プライベートデータと限定データを用いて、特定のドメインの性能を向上させることを目的としている。
データ不均一性ではなく、クロスクライアントなドメインカバレッジが重要な要素であることを実証的に証明します。
我々は多様性指向のクライアントセンターの選択と検索に基づく拡張を通じて、このカバレッジを明示的に最大化するアルゴリズムであるFedDCAを紹介する。
論文 参考訳(メタデータ) (2024-09-30T09:34:31Z) - Certifiably Byzantine-Robust Federated Conformal Prediction [49.23374238798428]
本稿では,悪意のあるクライアントに対する堅牢な共形予測を行う新しいフレームワークRob-FCPを提案する。
我々は、さまざまなビザンチン攻撃の下で、悪意のあるクライアントの多様な割合に対するRob-FCPの堅牢性を実証的に実証した。
論文 参考訳(メタデータ) (2024-06-04T04:43:30Z) - Trust Driven On-Demand Scheme for Client Deployment in Federated Learning [39.9947471801304]
Trusted-On-Demand-FL"は、サーバと資格のあるクライアントのプールの間の信頼関係を確立する。
シミュレーションでは,遺伝的アルゴリズムを応用した最適化モデルをデプロイし,連続的なユーザ行動データセットに頼っている。
論文 参考訳(メタデータ) (2024-05-01T08:50:08Z) - Confidential Federated Computations [16.415880530250092]
Federated Learning and Analytics (FLA)は、デバイス上の機密データを処理するためのテクノロジプラットフォームによって広く採用されている。
FLAシステムは必ずしも差分プライバシー(DP)のような匿名化機構を必要としない
本稿では,サーバサイドの計算の秘密性を確保するために,TEEとオープンソースを活用した新しいシステムアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-04-16T17:47:27Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。