論文の概要: Fed-AugMix: Balancing Privacy and Utility via Data Augmentation
- arxiv url: http://arxiv.org/abs/2412.13818v1
- Date: Wed, 18 Dec 2024 13:05:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:46:52.228851
- Title: Fed-AugMix: Balancing Privacy and Utility via Data Augmentation
- Title(参考訳): Fed-AugMix: データ拡張によるプライバシとユーティリティのバランス
- Authors: Haoyang Li, Wei Chen, Xiaojin Zhang,
- Abstract要約: 緩やかな漏洩攻撃は、連合学習のプライバシー保証に重大な脅威をもたらす。
本稿では,プライバシ・ユーティリティのトレードオフを実現するために,新たなデータ拡張ベースのフレームワークを提案する。
我々のフレームワークは、AugMixアルゴリズムをクライアントレベルで組み込んで、制御可能な重大度でデータ拡張を可能にする。
- 参考スコア(独自算出の注目度): 15.325493418326117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient leakage attacks pose a significant threat to the privacy guarantees of federated learning. While distortion-based protection mechanisms are commonly employed to mitigate this issue, they often lead to notable performance degradation. Existing methods struggle to preserve model performance while ensuring privacy. To address this challenge, we propose a novel data augmentation-based framework designed to achieve a favorable privacy-utility trade-off, with the potential to enhance model performance in certain cases. Our framework incorporates the AugMix algorithm at the client level, enabling data augmentation with controllable severity. By integrating the Jensen-Shannon divergence into the loss function, we embed the distortion introduced by AugMix into the model gradients, effectively safeguarding privacy against deep leakage attacks. Moreover, the JS divergence promotes model consistency across different augmentations of the same image, enhancing both robustness and performance. Extensive experiments on benchmark datasets demonstrate the effectiveness and stability of our method in protecting privacy. Furthermore, our approach maintains, and in some cases improves, model performance, showcasing its ability to achieve a robust privacy-utility trade-off.
- Abstract(参考訳): 緩やかな漏洩攻撃は、連合学習のプライバシー保証に重大な脅威をもたらす。
歪みに基づく保護機構は、この問題を緩和するために一般的に使用されるが、しばしば顕著な性能劣化を引き起こす。
既存の方法は、プライバシを確保しながらモデルパフォーマンスを維持するのに苦労する。
この課題に対処するために,プライバシとユーティリティのトレードオフを実現するために設計された,新たなデータ拡張ベースのフレームワークを提案する。
我々のフレームワークは、AugMixアルゴリズムをクライアントレベルで組み込んで、制御可能な重大度でデータ拡張を可能にする。
Jensen-Shannon分散を損失関数に統合することにより、AugMixが導入した歪みをモデル勾配に埋め込むことで、ディープリーク攻撃に対するプライバシーの保護を効果的に行うことができる。
さらに、JSのばらつきは、同じイメージの異なる拡張にまたがるモデルの一貫性を促進し、堅牢性とパフォーマンスを向上する。
ベンチマークデータセットの大規模な実験は、プライバシ保護における我々の方法の有効性と安定性を示している。
さらに、当社のアプローチは維持され、場合によってはパフォーマンスをモデル化し、堅牢なプライバシユーティリティトレードオフを実現する能力を示している。
関連論文リスト
- Multi-Objective Optimization for Privacy-Utility Balance in Differentially Private Federated Learning [12.278668095136098]
フェデレートラーニング(FL)は、生データを共有せずに、分散クライアント間で協調的なモデルトレーニングを可能にする。
本稿では,多目的最適化フレームワークを用いて動的にクリッピング規範を調整する適応型クリッピング機構を提案する。
以上の結果から,適応的クリッピングは固定クリッピングベースラインを一貫して上回り,同一のプライバシー制約下での精度の向上を実現している。
論文 参考訳(メタデータ) (2025-03-27T04:57:05Z) - Federated Learning with Differential Privacy: An Utility-Enhanced Approach [12.614480013684759]
フェデレーション学習は、クライアントのデータを共有する必要性をなくすことによって、データのプライバシを保護するための魅力的なアプローチとして現れている。
最近の研究では、フェデレートされた学習だけではプライバシーが保証されないことが示されている。
本稿では,これらのバニラ微分プライベートアルゴリズムを,ハールウェーブレット変換ステップとノイズの分散を著しく低減する新しいノイズ注入方式に基づいて修正する。
論文 参考訳(メタデータ) (2025-03-27T04:48:29Z) - FedEM: A Privacy-Preserving Framework for Concurrent Utility Preservation in Federated Learning [17.853502904387376]
Federated Learning (FL)は、分散クライアント間で、ローカルデータを共有せずにモデルの協調的なトレーニングを可能にし、分散システムにおけるプライバシの問題に対処する。
適応雑音注入による制御摂動を組み込んだ新しいアルゴリズムであるフェデレートエラー最小化(FedEM)を提案する。
ベンチマークデータセットの実験結果から、FedEMはプライバシのリスクを著しく低減し、モデルの正確性を保ち、プライバシ保護とユーティリティ保護の堅牢なバランスを達成している。
論文 参考訳(メタデータ) (2025-03-08T02:48:00Z) - DeMem: Privacy-Enhanced Robust Adversarial Learning via De-Memorization [2.473007680791641]
現実のアプリケーションにおける機械学習モデルの信頼性を保証するためには、敵対的堅牢性が不可欠である。
従来の研究では、敵の訓練による敵の堅牢性の向上は、プライバシ攻撃に対する脆弱性を高めることが示されている。
リスクの高いサンプルを選択的にターゲットとし,プライバシ保護とモデルロバストネスのバランスを向上するDeMemを提案する。
論文 参考訳(メタデータ) (2024-12-08T00:22:58Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Erasing Undesirable Influence in Diffusion Models [51.225365010401006]
拡散モデルは高品質な画像を生成するのに非常に効果的であるが、NSFW(職場では安全ではない)コンテンツの意図しない生成のようなリスクを引き起こす。
本研究では,データに関連付けられた不要な情報を取り除き,保存データに対する拡散モデルの実用性を維持するために設計されたアルゴリズムであるEraseDiffを紹介する。
論文 参考訳(メタデータ) (2024-01-11T09:30:36Z) - PAC Privacy Preserving Diffusion Models [6.299952353968428]
拡散モデルは、高いプライバシーと視覚的品質の両方で画像を生成することができる。
しかし、特定のデータ属性の民営化において堅牢な保護を確保するといった課題が発生する。
PACプライバシー保護拡散モデル(PAC Privacy Preserving Diffusion Model)を導入する。
論文 参考訳(メタデータ) (2023-12-02T18:42:52Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - PEARL: Data Synthesis via Private Embeddings and Adversarial
Reconstruction Learning [1.8692254863855962]
本稿では, 深層生成モデルを用いたデータ・フレームワークを, 差分的にプライベートな方法で提案する。
当社のフレームワークでは、センシティブなデータは、厳格なプライバシ保証をワンショットで行うことで衛生化されています。
提案手法は理論的に性能が保証され,複数のデータセットに対する経験的評価により,提案手法が適切なプライバシーレベルで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-08T18:00:01Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。