論文の概要: Sample-Efficient Differentially Private Fine-Tuning via Gradient Matrix Denoising
- arxiv url: http://arxiv.org/abs/2510.01137v1
- Date: Wed, 01 Oct 2025 17:25:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.689624
- Title: Sample-Efficient Differentially Private Fine-Tuning via Gradient Matrix Denoising
- Title(参考訳): グラディエントマトリックスデノナイジングによる高効率差分細調整
- Authors: Ali Dadsetan, Frank Rudzicz,
- Abstract要約: DP-SGDを用いた大規模言語モデル(LLM)の微分プライベート微調整におけるサンプル効率の課題に対処する。
DP-SGDは強力なプライバシー保証を提供するが、付加ノイズは勾配行列のエントロピーを著しく増大させる。
本稿では,ランダム行列理論を利用して勾配を識別し,低ランク構造を復元し,元の信号との整合性を改善するポストプロセッシングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 15.20112773687652
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address the challenge of sample efficiency in differentially private fine-tuning of large language models (LLMs) using DP-SGD. While DP-SGD provides strong privacy guarantees, the added noise significantly increases the entropy of gradient matrices, disrupting their low-rank structure and slowing optimization. We propose a post-processing algorithm that leverages random matrix theory to denoise gradients, restore low-rank structure, and improve alignment with the original signal. Applied to DP-SGD fine-tuning of RoBERTa on GLUE tasks, our method improves sample efficiency compared to state-of-the-art approaches, substantially reducing training time when optimal performance is not required. This work demonstrates that matrix recovery techniques can enhance the utility of private language model training without compromising privacy guarantees.
- Abstract(参考訳): DP-SGDを用いた大規模言語モデル(LLM)の微分プライベート微調整におけるサンプル効率の課題に対処する。
DP-SGDは強力なプライバシー保証を提供するが、付加ノイズにより勾配行列のエントロピーが著しく増加し、低ランク構造が破壊され、最適化が遅くなる。
本稿では,ランダム行列理論を利用して勾配を識別し,低ランク構造を復元し,元の信号との整合性を改善するポストプロセッシングアルゴリズムを提案する。
GLUEタスク上でのRoBERTaのDP-SGD微調整に応用して,本手法は最先端手法と比較して試料効率を向上し,最適性能を必要としない場合のトレーニング時間を大幅に短縮する。
本研究は,プライバシ保証を損なうことなく,マトリックスリカバリ技術がプライベート言語モデルトレーニングの有用性を高めることを実証する。
関連論文リスト
- Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - Privacy without Noisy Gradients: Slicing Mechanism for Generative Model Training [10.229653770070202]
差分プライバシ(DP)を持つ生成モデルを訓練するには、通常、勾配更新にノイズを注入するか、判別器の訓練手順を適用する必要がある。
プライベートデータのランダムな低次元投影にノイズを注入するスライシングプライバシ機構について考察する。
本稿では,この分散性を考慮したカーネルベース推定器を提案し,対角訓練の必要性を回避した。
論文 参考訳(メタデータ) (2024-10-25T19:32:58Z) - DiSK: Differentially Private Optimizer with Simplified Kalman Filter for Noise Reduction [57.83978915843095]
本稿では,微分プライベート勾配の性能を著しく向上する新しいフレームワークであるDiSKを紹介する。
大規模トレーニングの実用性を確保するため,Kalmanフィルタプロセスを簡素化し,メモリと計算要求を最小化する。
論文 参考訳(メタデータ) (2024-10-04T19:30:39Z) - Differentially Private SGD Without Clipping Bias: An Error-Feedback Approach [62.000948039914135]
Differentially Private Gradient Descent with Gradient Clipping (DPSGD-GC) を使用して、差分プライバシ(DP)がモデルパフォーマンス劣化の犠牲となることを保証する。
DPSGD-GCに代わる新しいエラーフィードバック(EF)DPアルゴリズムを提案する。
提案アルゴリズムに対するアルゴリズム固有のDP解析を確立し,R'enyi DPに基づくプライバシ保証を提供する。
論文 参考訳(メタデータ) (2023-11-24T17:56:44Z) - Differentially Private Learning with Per-Sample Adaptive Clipping [8.401653565794353]
非単調適応重み関数に基づくDP-PSACアルゴリズムを提案する。
DP-PSACは,複数のメインストリームビジョンや言語タスクにおいて,最先端の手法よりも優れ,あるいは適合していることを示す。
論文 参考訳(メタデータ) (2022-12-01T07:26:49Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。