論文の概要: Differentially Private Truncation of Unbounded Data via Public Second Moments
- arxiv url: http://arxiv.org/abs/2602.22282v1
- Date: Wed, 25 Feb 2026 12:21:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.351883
- Title: Differentially Private Truncation of Unbounded Data via Public Second Moments
- Title(参考訳): 公的な第2モーメントによる非有界データの微分的私的トランジケーション
- Authors: Zilong Cao, Xuan Bi, Hai Zhang,
- Abstract要約: 本稿では,パブリック2次モーメント行列を用いてプライベートデータを変換するPMT(Public-moment-guided Truncation)を提案する。
PMTは差分プライバシーモデルの精度と安定性を大幅に改善する。
- 参考スコア(独自算出の注目度): 4.662174186673445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data privacy is important in the AI era, and differential privacy (DP) is one of the golden solutions. However, DP is typically applicable only if data have a bounded underlying distribution. We address this limitation by leveraging second-moment information from a small amount of public data. We propose Public-moment-guided Truncation (PMT), which transforms private data using the public second-moment matrix and applies a principled truncation whose radius depends only on non-private quantities: data dimension and sample size. This transformation yields a well-conditioned second-moment matrix, enabling its inversion with a significantly strengthened ability to resist the DP noise. Furthermore, we demonstrate the applicability of PMT by using penalized and generalized linear regressions. Specifically, we design new loss functions and algorithms, ensuring that solutions in the transformed space can be mapped back to the original domain. We have established improvements in the models' DP estimation through theoretical error bounds, robustness guarantees, and convergence results, attributing the gains to the conditioning effect of PMT. Experiments on synthetic and real datasets confirm that PMT substantially improves the accuracy and stability of DP models.
- Abstract(参考訳): データプライバシはAI時代において重要であり、ディファレンシャルプライバシ(DP)は黄金のソリューションのひとつです。
しかし、DPは通常、データが境界分布を持つ場合にのみ適用できる。
少数の公開データから第2モーメント情報を活用することで、この制限に対処する。
本稿では,公開2次モーメント行列を用いてプライベートデータを変換するPMT(Public-moment-guided Truncation)を提案する。
この変換により、十分に条件が整った第2モーメント行列が得られ、その逆転はDPノイズに強く抵抗する能力を持つ。
さらに, 一般化線形回帰法を用いて, PMTの適用性を示す。
具体的には、新しい損失関数とアルゴリズムを設計し、変換された空間の解を元の領域にマッピングできるようにする。
我々は,理論誤差境界,ロバスト性保証,収束によるDP推定の改善を実現し,PMTの条件付け効果に寄与した。
合成および実データセットの実験では、PMTがDPモデルの精度と安定性を大幅に改善することを確認した。
関連論文リスト
- Differentially Private Linear Regression and Synthetic Data Generation with Statistical Guarantees [41.99844472131922]
社会科学では、小規模から中規模のデータセットは一般的であり、線形回帰(LR)は標準的である。
プライバシーに配慮した設定では、多くの研究は微分プライベート(DP)LRに焦点を当てているが、主に不確かさの定量化に限定した点推定に重点を置いている。
論文 参考訳(メタデータ) (2025-10-19T19:30:41Z) - Enhancing Differentially Private Linear Regression via Public Second-Moment [2.729099903480711]
本研究では,SSP-OLSEの変換を行うために,パブリックな第2モーメント行列を用いてプライベートデータを変換する手法を提案する。
我々は,提案手法と標準SSP-OLSEに関する理論的誤差境界を非DP OLSEに導出し,提案手法による堅牢性と精度の向上を明らかにした。
論文 参考訳(メタデータ) (2025-08-25T13:55:46Z) - Machine Learning with Privacy for Protected Attributes [56.44253915927481]
差分プライバシー(DP)の定義を洗練し、機能差分プライバシー(FDP)と呼ばれるより汎用的で柔軟なフレームワークを作成する。
私たちの定義はシミュレーションに基づいており、プライバシの追加/削除と置き換えの両方が可能で、保護された機能と非保護された機能の任意の分離を処理できます。
各種機械学習タスクにフレームワークを適用し,パブリック機能が利用可能であればDP学習モデルの実用性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:53:28Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Noise Variance Optimization in Differential Privacy: A Game-Theoretic Approach Through Per-Instance Differential Privacy [7.264378254137811]
差分プライバシー(DP)は、個人をターゲットデータセットに含めることによる分布の変化を観察することにより、プライバシー損失を測定することができる。
DPは、AppleやGoogleのような業界巨人の機械学習におけるデータセットの保護において際立っている。
本稿では,PDPを制約として提案し,各データインスタンスのプライバシ損失を測定し,個々のインスタンスに適したノイズを最適化する。
論文 参考訳(メタデータ) (2024-04-24T06:51:16Z) - Pre-training Differentially Private Models with Limited Public Data [54.943023722114134]
ディファレンシャルプライバシ(DP)は、モデルに提供されるセキュリティの度合いを測定するための重要な手法である。
DPはまだ、最初の事前訓練段階で使用されるデータのかなりの部分を保護することができない。
公共データの10%しか利用しない新しいDP継続事前学習戦略を開発した。
ImageNet-21kのDP精度は41.5%、非DP精度は55.7%、下流タスクのPlaces365とiNaturalist-2021では60.0%である。
論文 参考訳(メタデータ) (2024-02-28T23:26:27Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Public Data-Assisted Mirror Descent for Private Model Training [23.717811604829148]
差分プライベート(DP)モデルトレーニングにおけるプライバシ/ユーティリティトレードオフを改善するために,公開データを使用することの問題点を再考する。
我々は,従来のDP-SGDやDP-FedAvgよりもDP-SGDやDP-FedAvgよりもDP-FedAvgの方が大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:21:40Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。