論文の概要: Stabilization of Perturbed Loss Function: Differential Privacy without Gradient Noise
- arxiv url: http://arxiv.org/abs/2508.15523v1
- Date: Thu, 21 Aug 2025 12:54:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.330032
- Title: Stabilization of Perturbed Loss Function: Differential Privacy without Gradient Noise
- Title(参考訳): 摂動損失関数の安定化:グラディエントノイズのない差分プライバシー
- Authors: Salman Habib, Remi Chou, Taejoon Kim,
- Abstract要約: SPOFは,マルチユーザ環境を対象とした,差分プライベートなトレーニング機構である。
トレーニング中に環境騒音を呈し、ユーザ入力が破損しても安定した性能を維持する。
その結果, DP-SGDと比較して, SPOFの再現精度は最大3.5%向上し, 平均トレーニング時間を57.2%短縮できることがわかった。
- 参考スコア(独自算出の注目度): 7.010398112169834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose SPOF (Stabilization of Perturbed Loss Function), a differentially private training mechanism intended for multi-user local differential privacy (LDP). SPOF perturbs a stabilized Taylor expanded polynomial approximation of a model's training loss function, where each user's data is privatized by calibrated noise added to the coefficients of the polynomial. Unlike gradient-based mechanisms such as differentially private stochastic gradient descent (DP-SGD), SPOF does not require injecting noise into the gradients of the loss function, which improves both computational efficiency and stability. This formulation naturally supports simultaneous privacy guarantees across all users. Moreover, SPOF exhibits robustness to environmental noise during training, maintaining stable performance even when user inputs are corrupted. We compare SPOF with a multi-user extension of DP-SGD, evaluating both methods in a wireless body area network (WBAN) scenario involving heterogeneous user data and stochastic channel noise from body sensors. Our results show that SPOF achieves, on average, up to 3.5% higher reconstruction accuracy and reduces mean training time by up to 57.2% compared to DP-SGD, demonstrating superior privacy-utility trade-offs in multi-user environments.
- Abstract(参考訳): SPOF(Stabilization of Perturbed Loss Function)は,マルチユーザローカル差分プライバシ(LDP)を指向した,差分プライベートなトレーニング機構である。
SPOFの摂動は、モデルのトレーニング損失関数の安定化されたTaylor拡張多項式近似であり、各ユーザのデータは多項式の係数に付加される校正ノイズによって民営化される。
微分プライベート確率勾配降下(DP-SGD)のような勾配に基づくメカニズムとは異なり、SPOFは損失関数の勾配にノイズを注入する必要がなく、計算効率と安定性が向上する。
この定式化は、すべてのユーザの同時プライバシー保証を自然にサポートします。
さらに、SPOFは、トレーニング中に環境騒音に対して堅牢性を示し、ユーザ入力が破損しても安定した性能を維持する。
SPOFとDP-SGDのマルチユーザ拡張を比較し、異種ユーザデータと身体センサからの確率チャネルノイズを含む無線ボディエリアネットワーク(WBAN)シナリオにおける両方の手法を評価する。
以上の結果から,SPOFはDP-SGDに比べて平均3.5%高い再現精度を実現し,平均トレーニング時間を57.2%削減し,マルチユーザ環境において優れたプライバシー利用トレードオフを示すことがわかった。
関連論文リスト
- Revisiting Privacy-Utility Trade-off for DP Training with Pre-existing Knowledge [40.44144653519249]
異種雑音(DP-Hero)を有する一般微分プライバシーフレームワークを提案する。
DP-Heroでは、DP-SGDの異種バージョンをインスタンス化し、さらにフェデレーショントレーニングに拡張する。
提案するDP-Heroの有効性を検証・説明するための総合的な実験を行い,最新技術と比較するとトレーニング精度が向上した。
論文 参考訳(メタデータ) (2024-09-05T08:40:54Z) - Stable Neighbor Denoising for Source-free Domain Adaptive Segmentation [91.83820250747935]
擬似ラベルノイズは主に不安定なサンプルに含まれており、ほとんどのピクセルの予測は自己学習中に大きく変化する。
我々は, 安定・不安定な試料を効果的に発見する, SND(Stable Neighbor Denoising)アプローチを導入する。
SNDは、様々なSFUDAセマンティックセグメンテーション設定における最先端メソッドよりも一貫して優れている。
論文 参考訳(メタデータ) (2024-06-10T21:44:52Z) - Towards the Flatter Landscape and Better Generalization in Federated
Learning under Client-level Differential Privacy [67.33715954653098]
本稿では,DPの負の影響を軽減するために勾配摂動を利用するDP-FedSAMという新しいDPFLアルゴリズムを提案する。
具体的には、DP-FedSAM は Sharpness Aware of Minimization (SAM) を統合し、安定性と重みのある局所平坦度モデルを生成する。
より優れた性能を保ちながら、さらにマグニチュードランダムノイズを低減するために、ローカル更新スペーシフィケーション手法を用いてDP-FedSAM-$top_k$を提案する。
論文 参考訳(メタデータ) (2023-05-01T15:19:09Z) - Make Landscape Flatter in Differentially Private Federated Learning [69.78485792860333]
本稿では,DPの負の影響を軽減するために勾配摂動を利用するDP-FedSAMという新しいDPFLアルゴリズムを提案する。
具体的には、DP-FedSAMは、局所的な平坦性モデルと、より優れた安定性と重量頑健性を統合し、DPノイズに対する局所的な更新とロバスト性の小さなノルムをもたらす。
提案アルゴリズムは,DPFLの既存のSOTAベースラインと比較して,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2023-03-20T16:27:36Z) - Amplitude-Varying Perturbation for Balancing Privacy and Utility in
Federated Learning [86.08285033925597]
本稿では,フェデレート学習のプライバシを保護するため,時変雑音振幅を持つ新しいDP摂動機構を提案する。
我々は、FLの過度な摂動ノイズによる早期収束を防止するために、シリーズのオンラインリファインメントを導出した。
新しいDP機構のプライバシ保存FLの収束と精度への寄与は、持続的な雑音振幅を持つ最先端のガウスノイズ機構と比較して相関する。
論文 参考訳(メタデータ) (2023-03-07T22:52:40Z) - A Differentially Private Framework for Deep Learning with Convexified
Loss Functions [4.059849656394191]
差分プライバシー(DP)は、基礎となるトレーニングセットのプライバシーを保護するためにディープラーニングに応用されている。
既存のDP実践は、客観的摂動、勾配摂動、出力摂動の3つのカテゴリに分類される。
本稿では,DPノイズをランダムにサンプリングしたニューロンに注入し,新しい出力摂動機構を提案する。
論文 参考訳(メタデータ) (2022-04-03T11:10:05Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。