論文の概要: From Risk to Resilience: Towards Assessing and Mitigating the Risk of Data Reconstruction Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2512.15460v1
- Date: Wed, 17 Dec 2025 14:01:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.017454
- Title: From Risk to Resilience: Towards Assessing and Mitigating the Risk of Data Reconstruction Attacks in Federated Learning
- Title(参考訳): リスクからレジリエンスへ:フェデレートラーニングにおけるデータ再構成攻撃のリスク評価と緩和に向けて
- Authors: Xiangrui Xu, Zhize Li, Yufei Han, Bin Wang, Jiqiang Liu, Wei Wang,
- Abstract要約: データ再構成攻撃(DRA)は、敵がローカルクライアントからセンシティブなトレーニングデータを推測できるようにすることで、フェデレートラーニング(FL)システムに重大な脅威をもたらす。
広範な研究にもかかわらず、FLシステムにおけるDRAのリスクをどう評価するかという問題は未解決のままである。
Invertibility Loss (InvLoss) を導入し、与えられたデータインスタンスとFLモデルに対するDRAの最大有効性を定量化する。
- 参考スコア(独自算出の注目度): 21.517278571228076
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Data Reconstruction Attacks (DRA) pose a significant threat to Federated Learning (FL) systems by enabling adversaries to infer sensitive training data from local clients. Despite extensive research, the question of how to characterize and assess the risk of DRAs in FL systems remains unresolved due to the lack of a theoretically-grounded risk quantification framework. In this work, we address this gap by introducing Invertibility Loss (InvLoss) to quantify the maximum achievable effectiveness of DRAs for a given data instance and FL model. We derive a tight and computable upper bound for InvLoss and explore its implications from three perspectives. First, we show that DRA risk is governed by the spectral properties of the Jacobian matrix of exchanged model updates or feature embeddings, providing a unified explanation for the effectiveness of defense methods. Second, we develop InvRE, an InvLoss-based DRA risk estimator that offers attack method-agnostic, comprehensive risk evaluation across data instances and model architectures. Third, we propose two adaptive noise perturbation defenses that enhance FL privacy without harming classification accuracy. Extensive experiments on real-world datasets validate our framework, demonstrating its potential for systematic DRA risk evaluation and mitigation in FL systems.
- Abstract(参考訳): データ再構成攻撃(DRA)は、敵がローカルクライアントからセンシティブなトレーニングデータを推測できるようにすることで、フェデレートラーニング(FL)システムに重大な脅威をもたらす。
広範な研究にもかかわらず、FLシステムにおけるDRAのリスクをどう評価するかという問題は、理論上座屈したリスク定量化の枠組みが欠如していることから未解決のままである。
本研究では,与えられたデータインスタンスとFLモデルに対するDRAの最大効率を定量化するために,InvLoss(Invertibility Loss)を導入することで,このギャップに対処する。
InvLossの厳密で計算可能な上限を導き、その意味を3つの視点から探求する。
まず、DRAリスクは交換されたモデル更新や特徴埋め込みのヤコビ行列のスペクトル特性によって制御され、防御手法の有効性を統一的に説明できることを示す。
次に、InvLossベースのDRAリスク推定器であるInvREを開発し、データインスタンスとモデルアーキテクチャ間の攻撃方法に依存しない包括的リスク評価を提供する。
第3に、分類精度を損なうことなくFLプライバシーを高める2つの適応ノイズ摂動防御法を提案する。
実世界のデータセットに関する大規模な実験は我々のフレームワークを検証し、FLシステムにおけるDRAリスク評価と緩和の可能性を示した。
関連論文リスト
- RADAR: A Risk-Aware Dynamic Multi-Agent Framework for LLM Safety Evaluation via Role-Specialized Collaboration [81.38705556267917]
大規模言語モデル(LLM)の既存の安全性評価手法は、固有の制約に悩まされている。
リスク概念空間を再構築する理論的枠組みを導入する。
マルチエージェント協調評価フレームワークRADARを提案する。
論文 参考訳(メタデータ) (2025-09-28T09:35:32Z) - Risk Assessment and Security Analysis of Large Language Models [3.571310580820494]
本稿では,重要なアプリケーションシナリオにおける大規模言語モデル(LLM)のセキュリティ問題に焦点をあてる。
本稿では,動的リスク評価システムと階層型防衛システムの設計について述べる。
実験の結果,システムは隠れた攻撃を識別できることがわかった。
論文 参考訳(メタデータ) (2025-08-24T12:34:34Z) - Towards More Robust Retrieval-Augmented Generation: Evaluating RAG Under Adversarial Poisoning Attacks [45.07581174558107]
Retrieval-Augmented Generation (RAG) システムは幻覚を緩和するための有望な解決策として登場した。
RAGシステムは、検索コーパスに注入された悪意のある通路が、モデルに誤った結果をもたらす可能性がある、敵の毒殺攻撃に対して脆弱である。
本稿では、RAGシステムがこのような攻撃下でどのように振る舞うか、その堅牢性がどのように改善されるかについて、厳密に制御された実証研究を示す。
論文 参考訳(メタデータ) (2024-12-21T17:31:52Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Enabling Privacy-Preserving Cyber Threat Detection with Federated Learning [4.475514208635884]
本研究は, プライバシー保護型サイバー脅威検出のための学習の可能性について, 有効性, ビザンチンレジリエンス, 効率の観点から, 体系的に検証した。
FLトレーニングされた検出モデルは、中央訓練された検出モデルに匹敵する性能が得られることを示す。
現実的な脅威モデルの下では、FLはデータ中毒とモデル中毒の両方の攻撃に対して抵抗性があることが判明した。
論文 参考訳(メタデータ) (2024-04-08T01:16:56Z) - Risk-Driven Design of Perception Systems [47.787943101699966]
システム全体の安全性を低下させるエラーを最小限に抑えるために,認識システムを設計することが重要である。
完全積分閉ループシステムの性能に及ぼす知覚誤差の影響を考慮に入れた認識システム設計のためのリスク駆動型アプローチを開発する。
本研究では,現実的な視界に基づく航空機による応用・回避技術の評価を行い,リスク駆動設計がベースラインシステム上での衝突リスクを37%低減することを示す。
論文 参考訳(メタデータ) (2022-05-21T21:14:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。