論文の概要: Securing Federated Learning with Control-Flow Attestation: A Novel Framework for Enhanced Integrity and Resilience against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2403.10005v1
- Date: Fri, 15 Mar 2024 04:03:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 18:38:56.691134
- Title: Securing Federated Learning with Control-Flow Attestation: A Novel Framework for Enhanced Integrity and Resilience against Adversarial Attacks
- Title(参考訳): 制御フロー検証によるフェデレーション学習のセキュア化: 敵攻撃に対する統合性とレジリエンスを高めるための新しいフレームワーク
- Authors: Zahir Alsulaimawi,
- Abstract要約: 分散機械学習パラダイムとしてのフェデレートラーニング(FL)は、新たなサイバーセキュリティ課題を導入した。
本研究では,従来サイバーセキュリティに用いられてきた制御フロー(CFA)機構にインスパイアされた,革新的なセキュリティフレームワークを提案する。
我々は、ネットワーク全体にわたるモデル更新の完全性を認証し、検証し、モデル中毒や敵対的干渉に関連するリスクを効果的に軽減する。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advent of Federated Learning (FL) as a distributed machine learning paradigm has introduced new cybersecurity challenges, notably adversarial attacks that threaten model integrity and participant privacy. This study proposes an innovative security framework inspired by Control-Flow Attestation (CFA) mechanisms, traditionally used in cybersecurity, to ensure software execution integrity. By integrating digital signatures and cryptographic hashing within the FL framework, we authenticate and verify the integrity of model updates across the network, effectively mitigating risks associated with model poisoning and adversarial interference. Our approach, novel in its application of CFA principles to FL, ensures contributions from participating nodes are authentic and untampered, thereby enhancing system resilience without compromising computational efficiency or model performance. Empirical evaluations on benchmark datasets, MNIST and CIFAR-10, demonstrate our framework's effectiveness, achieving a 100\% success rate in integrity verification and authentication and notable resilience against adversarial attacks. These results validate the proposed security enhancements and open avenues for more secure, reliable, and privacy-conscious distributed machine learning solutions. Our work bridges a critical gap between cybersecurity and distributed machine learning, offering a foundation for future advancements in secure FL.
- Abstract(参考訳): 分散機械学習パラダイムとしてのフェデレーテッド・ラーニング(FL)の出現は、新たなサイバーセキュリティ問題、特にモデルの完全性と参加者のプライバシを脅かす敵攻撃をもたらした。
本研究では,従来サイバーセキュリティに用いられてきた制御フロー検証(CFA)機構にヒントを得た,ソフトウェア実行の整合性を保証する革新的なセキュリティフレームワークを提案する。
FLフレームワークにデジタル署名と暗号ハッシュを統合することにより、ネットワーク全体のモデル更新の整合性を認証し、検証し、モデル中毒や敵対的干渉に関連するリスクを効果的に軽減する。
我々のアプローチは、CFAの原則をFLに適用することで、参加ノードからのコントリビューションが本物で、修正されていないことを保証し、計算効率やモデル性能を損なうことなくシステムのレジリエンスを向上させる。
ベンチマークデータセットであるMNISTとCIFAR-10の実証的な評価は、我々のフレームワークの有効性を示し、完全性検証と認証において100%の成功率と敵攻撃に対する顕著なレジリエンスを達成した。
これらの結果は、よりセキュアで信頼性が高く、プライバシを重視した分散機械学習ソリューションのための、提案されたセキュリティ強化とオープンな方法を検証する。
私たちの仕事は、サイバーセキュリティと分散機械学習の間に重要なギャップを埋め、セキュアなFLにおける将来の進歩の基盤を提供します。
関連論文リスト
- Federated Learning in Adversarial Environments: Testbed Design and Poisoning Resilience in Cybersecurity [3.2872099228776315]
本稿では,フェデレートラーニング(FL)テストベッドの設計と実装に焦点を当て,サイバーセキュリティへの応用に焦点を当てた。
Flowerフレームワークを使用して構築されたテストベッドは、さまざまなFLフレームワークの実験を容易にし、そのパフォーマンス、スケーラビリティ、統合の容易さを評価します。
モデルとデータの整合性の両方をターゲットにした総合的な中毒検査は、敵の条件下でのシステムの堅牢性を評価する。
論文 参考訳(メタデータ) (2024-09-15T17:04:25Z) - Data-Driven Lipschitz Continuity: A Cost-Effective Approach to Improve Adversarial Robustness [47.9744734181236]
我々は、ディープニューラルネットワーク(DNN)の敵攻撃に対する堅牢性を証明するために、リプシッツ連続性の概念を探求する。
本稿では,入力領域を制約範囲に再マップし,リプシッツ定数を低減し,ロバスト性を高める新しいアルゴリズムを提案する。
本手法は,ロバストベンチリーダーボード上のCIFAR10,CIFAR100,ImageNetデータセットに対して,最も堅牢な精度を実現する。
論文 参考訳(メタデータ) (2024-06-28T03:10:36Z) - Robust Zero Trust Architecture: Joint Blockchain based Federated learning and Anomaly Detection based Framework [17.919501880326383]
本稿では,IoTネットワーク内の効率的なリモートワークとコラボレーションを支援する分散システムに適した,堅牢なゼロトラストアーキテクチャ(ZTA)を紹介する。
ブロックチェーンベースのフェデレーション学習原則を使用することで、当社のフレームワークは、漏洩したクライアントからの悪意のある更新を防止すべく、堅牢な集約メカニズムを備えている。
このフレームワークは異常検出と信頼計算を統合し、セキュアで信頼性の高いデバイスコラボレーションを分散的に保証する。
論文 参考訳(メタデータ) (2024-06-24T23:15:19Z) - Federated Learning with Blockchain-Enhanced Machine Unlearning: A Trustworthy Approach [20.74679353443655]
我々は、ブロックチェーンをフェデレートされた学習と融合させるフレームワークを導入し、未学習の要求とアクションの不変記録を確実にする。
私たちの重要なコントリビューションは、アンラーニングプロセスの認証機構、データセキュリティとプライバシの強化、データ管理の最適化などです。
論文 参考訳(メタデータ) (2024-05-27T04:35:49Z) - A Zero Trust Framework for Realization and Defense Against Generative AI
Attacks in Power Grid [62.91192307098067]
本稿では電力グリッドサプライチェーン(PGSC)のための新しいゼロ信頼フレームワークを提案する。
潜在的なGenAIによる攻撃ベクターの早期発見、テールリスクに基づく安定性の評価、そしてそのような脅威の緩和を容易にする。
実験の結果,ゼロ信頼フレームワークは攻撃ベクトル生成に95.7%の精度,95%安定PGSCに9.61%のリスク尺度,GenAIによる攻撃に対する防御に99%の信頼性が得られた。
論文 参考訳(メタデータ) (2024-03-11T02:47:21Z) - Enhancing Security in Federated Learning through Adaptive
Consensus-Based Model Update Validation [2.28438857884398]
本稿では,ラベルフリップ攻撃に対して,FL(Federated Learning)システムを構築するための高度なアプローチを提案する。
本稿では,適応的しきい値設定機構と統合されたコンセンサスに基づく検証プロセスを提案する。
以上の結果から,FLシステムのレジリエンスを高め,ラベルフリップ攻撃の顕著な緩和効果が示唆された。
論文 参考訳(メタデータ) (2024-03-05T20:54:56Z) - PPBFL: A Privacy Protected Blockchain-based Federated Learning Model [6.278098707317501]
フェデレート学習の安全性を高めるために,保護型フェデレート学習モデル(PPBFL)を提案する。
本稿では,訓練ノードのインセンティブを目的とした,連邦学習に適した訓練作業証明(PoTW)アルゴリズムを提案する。
また、リングシグネチャ技術を利用した新たなミックストランザクション機構を提案し、ローカルトレーニングクライアントのIDプライバシをよりよく保護する。
論文 参考訳(メタデータ) (2024-01-02T13:13:28Z) - Reliable Federated Disentangling Network for Non-IID Domain Feature [62.73267904147804]
本稿では、RFedDisと呼ばれる新しい信頼性のあるフェデレーション・ディエンタングリング・ネットワークを提案する。
我々の知る限り、提案するRFedDisは、明らかな不確実性と特徴の混在に基づくFLアプローチを開発する最初の試みである。
提案するRFedDisは,他の最先端FL手法と比較して信頼性の高い優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T11:46:34Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。