論文の概要: Enabling Trustworthy Federated Learning via Remote Attestation for Mitigating Byzantine Threats
- arxiv url: http://arxiv.org/abs/2509.00634v1
- Date: Sat, 30 Aug 2025 23:36:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.313788
- Title: Enabling Trustworthy Federated Learning via Remote Attestation for Mitigating Byzantine Threats
- Title(参考訳): 遠隔検診による信頼できるフェデレーション学習の実践 : ビザンチンの脅威を緩和するために
- Authors: Chaoyu Zhang, Heng Jin, Shanghao Shi, Hexuan Yu, Sydney Johns, Y. Thomas Hou, Wenjing Lou,
- Abstract要約: フェデレートラーニング(FL)はプライバシ保護機能に大きな注目を集めており、分散デバイスは生データを共有せずにグローバルモデルを協調的にトレーニングすることができる。
しかし、その分散した性質は、中央サーバーを盲目的に地元の訓練プロセスを信頼させ、不確実なモデル更新を集約させ、特にミッションクリティカルなシナリオにおいて、悪意のある参加者からのビザンツ攻撃の影響を受けやすいようにしている。
既存のデータ駆動防御は、悪意のある更新と自然の変化を区別するのに苦労し、偽陽性率が高く、フィルタリング性能が劣る。
本研究では,クライアント側の透明性を回復し,ビザンチン攻撃を緩和する遠隔検定(RA)ベースのFLシステムであるSentinelを提案する。
- 参考スコア(独自算出の注目度): 11.579159540465753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) has gained significant attention for its privacy-preserving capabilities, enabling distributed devices to collaboratively train a global model without sharing raw data. However, its distributed nature forces the central server to blindly trust the local training process and aggregate uncertain model updates, making it susceptible to Byzantine attacks from malicious participants, especially in mission-critical scenarios. Detecting such attacks is challenging due to the diverse knowledge across clients, where variations in model updates may stem from benign factors, such as non-IID data, rather than adversarial behavior. Existing data-driven defenses struggle to distinguish malicious updates from natural variations, leading to high false positive rates and poor filtering performance. To address this challenge, we propose Sentinel, a remote attestation (RA)-based scheme for FL systems that regains client-side transparency and mitigates Byzantine attacks from a system security perspective. Our system employs code instrumentation to track control-flow and monitor critical variables in the local training process. Additionally, we utilize a trusted training recorder within a Trusted Execution Environment (TEE) to generate an attestation report, which is cryptographically signed and securely transmitted to the server. Upon verification, the server ensures that legitimate client training processes remain free from program behavior violation or data manipulation, allowing only trusted model updates to be aggregated into the global model. Experimental results on IoT devices demonstrate that Sentinel ensures the trustworthiness of the local training integrity with low runtime and memory overhead.
- Abstract(参考訳): フェデレートラーニング(FL)はプライバシ保護機能に大きな注目を集めており、分散デバイスは生データを共有せずにグローバルモデルを協調的にトレーニングすることができる。
しかし、その分散した性質は、中央サーバーを盲目的に地元の訓練プロセスを信頼させ、不確実なモデル更新を集約させ、特にミッションクリティカルなシナリオにおいて、悪意のある参加者からのビザンツ攻撃の影響を受けやすいようにしている。
モデル更新のバリエーションは、敵対的な振る舞いではなく、非IIDデータのような良質な要因に起因している可能性がある。
既存のデータ駆動防御は、悪意のある更新と自然の変化を区別するのに苦労し、偽陽性率が高く、フィルタリング性能が劣る。
この課題に対処するために,クライアント側の透明性を回復し,システムセキュリティの観点からビザンチン攻撃を緩和する,RAベースのFLシステム用遠隔検定スキームであるSentinelを提案する。
本システムでは,制御フローの追跡とローカルトレーニングプロセスにおける重要な変数の監視にコードインスツルメンテーションを採用している。
さらに,Trusted Execution Environment (TEE) 内の信頼されたトレーニングレコーダを用いて,暗号的に署名され,セキュアにサーバに送信される認証レポートを生成する。
検証を行うと、サーバは正当なクライアントトレーニングプロセスがプログラムの動作違反やデータ操作から解放されることを保証し、信頼されたモデル更新のみをグローバルモデルに集約する。
IoTデバイスの実験的結果は、Sentinelがローカルトレーニングの整合性の信頼性を、ランタイムとメモリオーバーヘッドの低いものに保証していることを示している。
関連論文リスト
- Robust Federated Learning Against Poisoning Attacks: A GAN-Based Defense Framework [0.6554326244334868]
フェデレートラーニング(FL)は、生データを共有せずに、分散デバイス間で協調的なモデルトレーニングを可能にする。
本稿では,クライアントの更新を認証するために,CGAN(Conditional Generative Adversarial Network)を利用してサーバで合成データを生成する,プライバシ保護型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-26T18:00:56Z) - Blockchain-Empowered Cyber-Secure Federated Learning for Trustworthy Edge Computing [0.36700088931938835]
Federated Learning(FL)は、プライバシ保護のための分散機械学習スキームである。
FLパラダイムは、有害攻撃と呼ばれるネットワーク参加者からの攻撃によって脆弱になる可能性がある。
本稿では,FLトレーニングプロセスにおける信頼性,公正性,信頼性を保証するクロスデバイスFLモデルを提案する。
論文 参考訳(メタデータ) (2024-12-30T02:58:18Z) - ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - Trust Driven On-Demand Scheme for Client Deployment in Federated Learning [39.9947471801304]
Trusted-On-Demand-FL"は、サーバと資格のあるクライアントのプールの間の信頼関係を確立する。
シミュレーションでは,遺伝的アルゴリズムを応用した最適化モデルをデプロイし,連続的なユーザ行動データセットに頼っている。
論文 参考訳(メタデータ) (2024-05-01T08:50:08Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。