論文の概要: Privacy-Preserving Federated Learning Framework for Risk-Based Adaptive Authentication
- arxiv url: http://arxiv.org/abs/2508.18453v1
- Date: Mon, 25 Aug 2025 20:02:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.578804
- Title: Privacy-Preserving Federated Learning Framework for Risk-Based Adaptive Authentication
- Title(参考訳): リスクベース適応認証のためのプライバシ保護フェデレーション学習フレームワーク
- Authors: Yaser Baseri, Abdelhakim Senhaji Hafid, Dimitrios Makrakis, Hamidreza Fereidouni,
- Abstract要約: 本稿では,リスクベース適応認証のための新しいフェデレートラーニングフレームワークであるFL-RBA2を紹介する。
数学的に基底付けられた類似性変換を通じて、非IID問題に対処する。
分散クライアント間のアンバイアスアグリゲーションとパーソナライズされたリスクモデリングをサポートする。
- 参考スコア(独自算出の注目度): 1.2366208723499545
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Balancing robust security with strong privacy guarantees is critical for Risk-Based Adaptive Authentication (RBA), particularly in decentralized settings. Federated Learning (FL) offers a promising solution by enabling collaborative risk assessment without centralizing user data. However, existing FL approaches struggle with Non-Independent and Identically Distributed (Non-IID) user features, resulting in biased, unstable, and poorly generalized global models. This paper introduces FL-RBA2, a novel Federated Learning framework for Risk-Based Adaptive Authentication that addresses Non-IID challenges through a mathematically grounded similarity transformation. By converting heterogeneous user features (including behavioral, biometric, contextual, interaction-based, and knowledge-based modalities) into IID similarity vectors, FL-RBA2 supports unbiased aggregation and personalized risk modeling across distributed clients. The framework mitigates cold-start limitations via clustering-based risk labeling, incorporates Differential Privacy (DP) to safeguard sensitive information, and employs Message Authentication Codes (MACs) to ensure model integrity and authenticity. Federated updates are securely aggregated into a global model, achieving strong balance between user privacy, scalability, and adaptive authentication robustness. Rigorous game-based security proofs in the Random Oracle Model formally establish privacy, correctness, and adaptive security guarantees. Extensive experiments on keystroke, mouse, and contextual datasets validate FL-RBA2's effectiveness in high-risk user detection and its resilience to model inversion and inference attacks, even under strong DP constraints.
- Abstract(参考訳): 堅牢なセキュリティと強力なプライバシ保証のバランスをとることは、リスクベースの適応認証(RBA)、特に分散型設定において重要である。
Federated Learning (FL)は、ユーザデータを集中化せずに協調的なリスクアセスメントを可能にする、有望なソリューションを提供する。
しかし、既存のFLアプローチは非独立分散(Non-IID)ユーザ機能に苦しむため、バイアスがあり、不安定で、一般化が不十分なグローバルモデルとなる。
本稿では,リスクベース適応認証のための新しいフェデレートラーニングフレームワークであるFL-RBA2を紹介する。
不均一なユーザ機能(行動、バイオメトリック、コンテキストベース、インタラクションベース、知識ベースのモダリティなど)をID類似性ベクトルに変換することで、FL-RBA2は分散クライアント間の非バイアス集約とパーソナライズされたリスクモデリングをサポートする。
このフレームワークはクラスタリングベースのリスクラベリングを通じてコールドスタート制限を緩和し、機密情報を保護するために差分プライバシ(DP)を導入し、モデルの完全性と認証を保証するためにメッセージ認証コード(MAC)を使用している。
フェデレーションされた更新は、グローバルモデルに安全に集約され、ユーザのプライバシ、スケーラビリティ、アダプティブ認証の堅牢性の間の強いバランスを達成する。
Random Oracle Modelの厳格なゲームベースのセキュリティ証明は、プライバシ、正確性、適応的なセキュリティ保証を正式に確立する。
キーストローク、マウス、コンテキストデータセットに関する大規模な実験は、FL-RBA2が高リスクユーザ検出において有効であることと、強力なDP制約の下でも、インバージョンと推論攻撃をモデル化するためのレジリエンスを検証する。
関連論文リスト
- RESFL: An Uncertainty-Aware Framework for Responsible Federated Learning by Balancing Privacy, Fairness and Utility in Autonomous Vehicles [6.3338980105224145]
既存のFLフレームワークは、プライバシ、公平性、堅牢性のバランスをとるのに苦労しているため、人口統計グループ間でのパフォーマンス格差が生じる。
この研究は、AVのためのFLベースのオブジェクト検出におけるプライバシと公正性のトレードオフについて検討し、両者を最適化する統合ソリューションであるRESFLを紹介した。
RESFLは、敵のプライバシーのゆがみと不確実性誘導された公正なアグリゲーションを取り入れている。
FACETデータセットとCARLAシミュレータ上でRESFLを評価し、様々な条件下で精度、公正性、プライバシーのレジリエンス、堅牢性を評価する。
論文 参考訳(メタデータ) (2025-03-20T15:46:03Z) - Privacy Preserving and Robust Aggregation for Cross-Silo Federated Learning in Non-IID Settings [1.8434042562191815]
フェデレーション平均化は、フェデレーション学習において最も広く使われているアグリゲーション戦略である。
私たちのメソッドは、追加のクライアントメタデータを不要にするため、グラデーション更新のみに依存しています。
本研究は, グラデーションマスキングの有効性を, フェデレート学習のための実用的でセキュアなソリューションとして確立した。
論文 参考訳(メタデータ) (2025-03-06T14:06:20Z) - F-RBA: A Federated Learning-based Framework for Risk-based Authentication [0.5999777817331317]
我々は,フェデレート・ラーニングを活用し,プライバシ中心のトレーニングを保証するフェデレート・リスクベース認証(F-RBA)フレームワークを提案する。
F-RBAは、リスクアセスメントをユーザーのデバイス上でローカルに行う分散アーキテクチャを導入している。
統一されたユーザプロファイルを維持しながらデバイス間でのリアルタイムリスク評価を容易にすることで、F-RBAはデータ保護、セキュリティ、スケーラビリティのバランスを実現する。
論文 参考訳(メタデータ) (2024-12-16T19:42:30Z) - Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Securing Federated Learning with Control-Flow Attestation: A Novel Framework for Enhanced Integrity and Resilience against Adversarial Attacks [2.28438857884398]
分散機械学習パラダイムとしてのフェデレートラーニング(FL)は、新たなサイバーセキュリティ課題を導入した。
本研究では,従来サイバーセキュリティに用いられてきた制御フロー(CFA)機構にインスパイアされた,革新的なセキュリティフレームワークを提案する。
我々は、ネットワーク全体にわたるモデル更新の完全性を認証し、検証し、モデル中毒や敵対的干渉に関連するリスクを効果的に軽減する。
論文 参考訳(メタデータ) (2024-03-15T04:03:34Z) - Enhancing Security in Federated Learning through Adaptive
Consensus-Based Model Update Validation [2.28438857884398]
本稿では,ラベルフリップ攻撃に対して,FL(Federated Learning)システムを構築するための高度なアプローチを提案する。
本稿では,適応的しきい値設定機構と統合されたコンセンサスに基づく検証プロセスを提案する。
以上の結果から,FLシステムのレジリエンスを高め,ラベルフリップ攻撃の顕著な緩和効果が示唆された。
論文 参考訳(メタデータ) (2024-03-05T20:54:56Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。