論文の概要: Differentially Private Subspace Fine-Tuning for Large Language Models
- arxiv url: http://arxiv.org/abs/2601.11113v1
- Date: Fri, 16 Jan 2026 09:15:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.428311
- Title: Differentially Private Subspace Fine-Tuning for Large Language Models
- Title(参考訳): 大規模言語モデルのための微分プライベートサブスペースファインチューニング
- Authors: Lele Zheng, Xiang Wang, Tao Zhang, Yang Cao, Ke Cheng, Yulong Shen,
- Abstract要約: 微分プライバシー(DP)は厳格なプライバシー保証を提供し、微調整で広く採用されている。
正式なDP保証を保ちながら、雑音の大きさを大幅に低減する2段階サブスペース微調整法であるDP-SFTを提案する。
複数のデータセットの実験により、DP-SFTは厳密なDP制約の下で精度と安定性を高め、収束を加速し、DP微調整ベースラインよりも大幅に向上することを示した。
- 参考スコア(独自算出の注目度): 23.87587995037086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fine-tuning large language models on downstream tasks is crucial for realizing their cross-domain potential but often relies on sensitive data, raising privacy concerns. Differential privacy (DP) offers rigorous privacy guarantees and has been widely adopted in fine-tuning; however, naively injecting noise across the high-dimensional parameter space creates perturbations with large norms, degrading performance and destabilizing training. To address this issue, we propose DP-SFT, a two-stage subspace fine-tuning method that substantially reduces noise magnitude while preserving formal DP guarantees. Our intuition is that, during fine-tuning, significant parameter updates lie within a low-dimensional, task-specific subspace, while other directions change minimally. Hence, we only inject DP noise into this subspace to protect privacy without perturbing irrelevant parameters. In phase one, we identify the subspace by analyzing principal gradient directions to capture task-specific update signals. In phase two, we project full gradients onto this subspace, add DP noise, and map the perturbed gradients back to the original parameter space for model updates, markedly lowering noise impact. Experiments on multiple datasets demonstrate that DP-SFT enhances accuracy and stability under rigorous DP constraints, accelerates convergence, and achieves substantial gains over DP fine-tuning baselines.
- Abstract(参考訳): 下流タスクで微調整された大きな言語モデルは、ドメイン横断の可能性を実現する上で非常に重要ですが、機密データに依存し、プライバシの懸念が高まります。
差分プライバシー(DP)は厳格なプライバシー保証を提供し、微調整に広く採用されているが、高次元パラメータ空間にノイズを注入することで、大きな規範による摂動が生じ、性能が低下し、トレーニングが不安定になる。
この問題に対処するため,正式なDP保証を保ちながら,雑音の大きさを大幅に低減する2段階のサブスペース微調整手法であるDP-SFTを提案する。
我々の直感は、微調整の間、重要なパラメータの更新が低次元のタスク固有の部分空間内にあるのに対して、他の方向は最小限に変化するということです。
したがって、このサブスペースにDPノイズを注入するだけで、無関係なパラメータを摂動することなくプライバシーを保護することができる。
フェーズ1では、タスク固有の更新信号をキャプチャするために、主勾配方向を解析してサブスペースを識別する。
フェーズ2では、この部分空間に完全な勾配を投影し、DPノイズを加え、摂動勾配を元のパラメータ空間にマッピングし、モデル更新を行い、ノイズの影響を著しく低減する。
複数のデータセットの実験により、DP-SFTは厳密なDP制約の下で精度と安定性を高め、収束を加速し、DP微調整ベースラインよりも大幅に向上することを示した。
関連論文リスト
- Enhancing DPSGD via Per-Sample Momentum and Low-Pass Filtering [4.9871580445771455]
Differentially Private Gradient Descent(DPSGD)は、正式なプライバシ保証を備えたディープニューラルネットワークのトレーニングに広く使用されている。
既存の手法は、DPノイズの低減がクリッピングバイアスと逆効果を悪化させるため、これらの問題の1つにのみ対処する。
本研究では,サンプルごとの運動量と低域通過フィルタを併用してDPノイズとクリッピングバイアスを同時に緩和する新しい手法であるemphDP-PMLFを提案する。
論文 参考訳(メタデータ) (2025-11-11T23:40:02Z) - Adaptive Token-Weighted Differential Privacy for LLMs: Not All Tokens Require Equal Protection [12.047350336564193]
我々は、適応トークン重み付き微分プライバシー(ATDP)を通して、この知見を運用する。
ATDPは、異なる勾配重みを感度および非感度トークンに適応的に割り当てる。
既存のDPベースの微調整パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2025-09-27T10:51:07Z) - Technical Report: Full Version of Analyzing and Optimizing Perturbation of DP-SGD Geometrically [7.905629859216635]
まずDP-SGDを一般化し,DPノイズが学習過程に与える影響を理論的に導出する。
解析の結果、摂動勾配では、方向の雑音のみがモデル効率に顕著な影響を与えていることが判明した。
DPフレームワーク内の幾何戦略GeoDPを設計し、勾配の方向と大きさを乱す。
論文 参考訳(メタデータ) (2025-04-08T02:26:10Z) - DOPPLER: Differentially Private Optimizers with Low-pass Filter for Privacy Noise Reduction [47.65999101635902]
差分プライベート(DP)トレーニングは、トレーニングされた機械学習モデルから収集したトレーニングデータの機密情報の漏洩を防止する。
DOPPLERと呼ばれる新しいコンポーネントを開発し、この周波数領域内のDPノイズを効果的に増幅する。
実験の結果,低域通過フィルタを用いたDPは,試験精度で3%-10%向上した。
論文 参考訳(メタデータ) (2024-08-24T04:27:07Z) - Towards the Flatter Landscape and Better Generalization in Federated
Learning under Client-level Differential Privacy [67.33715954653098]
本稿では,DPの負の影響を軽減するために勾配摂動を利用するDP-FedSAMという新しいDPFLアルゴリズムを提案する。
具体的には、DP-FedSAM は Sharpness Aware of Minimization (SAM) を統合し、安定性と重みのある局所平坦度モデルを生成する。
より優れた性能を保ちながら、さらにマグニチュードランダムノイズを低減するために、ローカル更新スペーシフィケーション手法を用いてDP-FedSAM-$top_k$を提案する。
論文 参考訳(メタデータ) (2023-05-01T15:19:09Z) - Make Landscape Flatter in Differentially Private Federated Learning [69.78485792860333]
本稿では,DPの負の影響を軽減するために勾配摂動を利用するDP-FedSAMという新しいDPFLアルゴリズムを提案する。
具体的には、DP-FedSAMは、局所的な平坦性モデルと、より優れた安定性と重量頑健性を統合し、DPノイズに対する局所的な更新とロバスト性の小さなノルムをもたらす。
提案アルゴリズムは,DPFLの既存のSOTAベースラインと比較して,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2023-03-20T16:27:36Z) - Dynamic Differential-Privacy Preserving SGD [19.273542515320372]
Differentially-Private Gradient Descent (DP-SGD)は、SGDトレーニング中にクリップされた勾配にノイズを加えることで、トレーニングデータのプライバシ侵害を防止する。
同じクリップ操作とトレーニングステップ間の付加ノイズにより、不安定な更新や、上昇期間も生じる。
更新時にDP-SGDよりも低いプライバシコストの動的DP-SGDを提案する。
論文 参考訳(メタデータ) (2021-10-30T04:45:11Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。