論文の概要: SVDefense: Effective Defense against Gradient Inversion Attacks via Singular Value Decomposition
- arxiv url: http://arxiv.org/abs/2510.03319v1
- Date: Wed, 01 Oct 2025 03:25:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:58.824647
- Title: SVDefense: Effective Defense against Gradient Inversion Attacks via Singular Value Decomposition
- Title(参考訳): SVDefense:特異値分解によるグラディエント・インバージョン・アタックに対する効果的な防御
- Authors: Chenxiang Luo, David K. Y. Yau, Qun Song,
- Abstract要約: Federated Learning(FL)は、生データを共有せずに協調的なモデルトレーニングを可能にするが、勾配反転攻撃(GIA)に弱い。
SVD(Truncated Singular Value Decomposition)を利用して勾配更新を難読化するGIAに対する新しい防御フレームワークであるSVDefenseを提案する。
SVDefenseは様々なリソース制約の組込みプラットフォームにデプロイするのに実用的です。
- 参考スコア(独自算出の注目度): 2.770477290556769
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables collaborative model training without sharing raw data but is vulnerable to gradient inversion attacks (GIAs), where adversaries reconstruct private data from shared gradients. Existing defenses either incur impractical computational overhead for embedded platforms or fail to achieve privacy protection and good model utility at the same time. Moreover, many defenses can be easily bypassed by adaptive adversaries who have obtained the defense details. To address these limitations, we propose SVDefense, a novel defense framework against GIAs that leverages the truncated Singular Value Decomposition (SVD) to obfuscate gradient updates. SVDefense introduces three key innovations, a Self-Adaptive Energy Threshold that adapts to client vulnerability, a Channel-Wise Weighted Approximation that selectively preserves essential gradient information for effective model training while enhancing privacy protection, and a Layer-Wise Weighted Aggregation for effective model aggregation under class imbalance. Our extensive evaluation shows that SVDefense outperforms existing defenses across multiple applications, including image classification, human activity recognition, and keyword spotting, by offering robust privacy protection with minimal impact on model accuracy. Furthermore, SVDefense is practical for deployment on various resource-constrained embedded platforms. We will make our code publicly available upon paper acceptance.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、生データを共有せずに協調的なモデルトレーニングを可能にするが、敵が共有勾配からプライベートデータを再構築するグラデーション・インバージョン・アタック(GIA)に弱い。
既存の防御は組み込みプラットフォームの非現実的な計算オーバーヘッドを発生させるか、プライバシ保護と優れたモデルユーティリティを同時に達成できないかのいずれかである。
さらに、多くの防御は、防御の詳細を入手した適応的な敵によって容易に回避できる。
これらの制約に対処するため, SVD(Truncated Singular Value Decomposition)を利用するGIAに対する新たな防御フレームワークであるSVDefenseを提案する。
SVDefenseは、クライアントの脆弱性に対応するセルフアダプティブ・エナジー・閾値(Self-Adaptive Energy Threshold)、プライバシー保護を強化しながら効果的なモデルトレーニングに不可欠な勾配情報を選択的に保存するチャネルワイズ重み近似(Channel-Wise Weighted Approximation)、クラス不均衡の下で効果的なモデルアグリゲーションのためのレイヤワイズ重みアグリゲーション(Layer-Wise Weighted Aggregation)という3つの重要なイノベーションを導入している。
SVDefenseは画像分類,人間活動認識,キーワードスポッティングなど,複数のアプリケーションにおいて,モデル精度への影響を最小限に抑えた堅牢なプライバシ保護を提供することで,既存の防御性能を上回っていることを示す。
さらに、SVDefenseは様々なリソース制約の組込みプラットフォームにデプロイするのに実用的である。
私たちは受理後、コードを公開します。
関連論文リスト
- Secure Distributed Learning for CAVs: Defending Against Gradient Leakage with Leveled Homomorphic Encryption [0.0]
ホモモルフィック暗号化(HE)は、差分プライバシー(DP)とセキュアマルチパーティ計算(SMPC)に代わる有望な代替手段を提供する
資源制約のある環境において,フェデレートラーニング(FL)に最も適したHE方式の評価を行った。
我々は、モデル精度を維持しながら、Gradients (DLG)攻撃からのDeep Leakageを効果的に軽減するHEベースのFLパイプラインを開発した。
論文 参考訳(メタデータ) (2025-06-09T16:12:18Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Learning to Invert: Simple Adaptive Attacks for Gradient Inversion in
Federated Learning [31.374376311614675]
グラディエント・インバージョン・アタックは、フェデレート学習におけるモデル勾配からのトレーニングサンプルの回復を可能にする。
既存の防御は、単純な適応攻撃によって破壊される可能性があることを示す。
論文 参考訳(メタデータ) (2022-10-19T20:41:30Z) - FedDef: Defense Against Gradient Leakage in Federated Learning-based
Network Intrusion Detection Systems [15.39058389031301]
FLベースのNIDS向けに設計された2つのプライバシ評価指標を提案する。
提案するFedDefは,理論的保証を備えた新しい最適化型入力摂動防御戦略である。
4つのデータセットに対する4つの既存の防御を実験的に評価し、プライバシ保護の観点から、我々の防衛がすべてのベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2022-10-08T15:23:30Z) - Combining Stochastic Defenses to Resist Gradient Inversion: An Ablation Study [6.766058964358335]
差分プライバシー(DP)やプライバシモジュール(PM)のような一般的な防御メカニズムは、そのような攻撃を防ぐために計算中にランダム性を導入する。
本稿では,この原理を応用し,共通防御機構をバイパスするターゲットGI攻撃について紹介する。
論文 参考訳(メタデータ) (2022-08-09T13:23:29Z) - Defense Against Gradient Leakage Attacks via Learning to Obscure Data [48.67836599050032]
フェデレートラーニングは、効果的なプライバシー保護学習メカニズムと考えられている。
本稿では,不明瞭なデータに学習することで,クライアントのデータ保護のための新しい防御手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T21:03:28Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。