論文の概要: Shadow defense against gradient inversion attack in federated learning
- arxiv url: http://arxiv.org/abs/2506.15711v1
- Date: Fri, 30 May 2025 17:58:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-29 09:28:14.779259
- Title: Shadow defense against gradient inversion attack in federated learning
- Title(参考訳): 連合学習における勾配反転攻撃に対するシャドーディフェンス
- Authors: Le Jiang, Liyan Ma, Guang Yang,
- Abstract要約: フェデレートラーニング(FL)は、プライバシ保護分散トレーニングのための変革的フレームワークとして登場した。
グラディエント・アタック(GIA)は、訓練画像のトレーニングと再構築に使用される勾配を近似し、患者のプライバシーを盗む。
これらの課題に対処するフレームワークを導入し、機密性の高い領域を特定するために、解釈可能性を備えたシャドウモデルを活用する。
- 参考スコア(独自算出の注目度): 6.708306069847227
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has emerged as a transformative framework for privacy-preserving distributed training, allowing clients to collaboratively train a global model without sharing their local data. This is especially crucial in sensitive fields like healthcare, where protecting patient data is paramount. However, privacy leakage remains a critical challenge, as the communication of model updates can be exploited by potential adversaries. Gradient inversion attacks (GIAs), for instance, allow adversaries to approximate the gradients used for training and reconstruct training images, thus stealing patient privacy. Existing defense mechanisms obscure gradients, yet lack a nuanced understanding of which gradients or types of image information are most vulnerable to such attacks. These indiscriminate calibrated perturbations result in either excessive privacy protection degrading model accuracy, or insufficient one failing to safeguard sensitive information. Therefore, we introduce a framework that addresses these challenges by leveraging a shadow model with interpretability for identifying sensitive areas. This enables a more targeted and sample-specific noise injection. Specially, our defensive strategy achieves discrepancies of 3.73 in PSNR and 0.2 in SSIM compared to the circumstance without defense on the ChestXRay dataset, and 2.78 in PSNR and 0.166 in the EyePACS dataset. Moreover, it minimizes adverse effects on model performance, with less than 1\% F1 reduction compared to SOTA methods. Our extensive experiments, conducted across diverse types of medical images, validate the generalization of the proposed framework. The stable defense improvements for FedAvg are consistently over 1.5\% times in LPIPS and SSIM. It also offers a universal defense against various GIA types, especially for these sensitive areas in images.
- Abstract(参考訳): フェデレートラーニング(FL)は、プライバシを保存する分散トレーニングのための変革的なフレームワークとして登場し、クライアントがローカルデータを共有せずにグローバルモデルを協調的にトレーニングすることを可能にする。
これは、患者のデータを保護することが最重要となる、医療のような繊細な分野において特に重要である。
しかし、モデル更新のコミュニケーションは潜在的な敵によって悪用されるため、プライバシリークは依然として重要な課題である。
例えば、グラディエント・インバージョン・アタック(GIA)は、訓練画像のトレーニングや再構成に使用される勾配を近似し、患者のプライバシーを盗むことを可能にする。
既存の防御機構は勾配を曖昧にしているが、どの勾配や画像情報がそのような攻撃に最も弱いかという微妙な理解を欠いている。
これらの無差別な調整された摂動は、過剰なプライバシー保護の劣化モデル精度をもたらすか、または機密情報の保護に失敗する。
そこで我々は,これらの課題に対処するためのフレームワークを提案する。
これにより、よりターゲットとサンプル固有のノイズインジェクションが可能になる。
具体的には,PSNR3.73,SSIM0.2,ChestXRay2.78,EyePACS2.66の2。
さらに,SOTA法に比べてF1削減率を1\%以下に抑えながら,モデル性能に対する悪影響を最小限に抑える。
様々な種類の医用画像にまたがって実施した広範囲な実験により,提案手法の一般化が検証された。
FedAvgの安定した防御改善は、LPIPSとSSIMの1.5倍以上である。
また、画像のこれらの敏感な領域に対して、様々なGAAタイプに対して普遍的な防御を提供する。
関連論文リスト
- Defending Against Gradient Inversion Attacks for Biomedical Images via Learnable Data Perturbation [3.5280398899666903]
連合学習における勾配反転攻撃に対する防御効果を示す。
提案手法は,再構成画像の分類において,攻撃者の精度を12.5%低下させることで,ベースラインを上回り得る。
その結果,医療データに対する汎用的防衛の可能性が示唆された。
論文 参考訳(メタデータ) (2025-03-19T01:53:23Z) - Reconciling AI Performance and Data Reconstruction Resilience for
Medical Imaging [52.578054703818125]
人工知能(AI)モデルは、トレーニングデータの情報漏洩に対して脆弱であり、非常に敏感である。
差別化プライバシ(DP)は、定量的なプライバシー予算を設定することで、これらの感受性を回避することを目的としている。
非常に大きなプライバシ予算を使用することで、リコンストラクション攻撃は不可能であり、パフォーマンスの低下は無視可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T12:21:30Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Learning to Invert: Simple Adaptive Attacks for Gradient Inversion in
Federated Learning [31.374376311614675]
グラディエント・インバージョン・アタックは、フェデレート学習におけるモデル勾配からのトレーニングサンプルの回復を可能にする。
既存の防御は、単純な適応攻撃によって破壊される可能性があることを示す。
論文 参考訳(メタデータ) (2022-10-19T20:41:30Z) - Concealing Sensitive Samples against Gradient Leakage in Federated
Learning [41.43099791763444]
Federated Learning(FL)は、クライアントが生のプライベートデータをサーバと共有する必要をなくし、ユーザのプライバシを高める分散学習パラダイムである。
近年の研究では、FLの脆弱性が逆攻撃のモデルとなり、敵は共有勾配情報に基づく盗聴によって個人データを再構築している。
我々は,機密データの勾配を隠蔽標本で曖昧にする,シンプルで効果的な防衛戦略を提案する。
論文 参考訳(メタデータ) (2022-09-13T04:19:35Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。