論文の概要: AlignDP: Hybrid Differential Privacy with Rarity-Aware Protection for LLMs
- arxiv url: http://arxiv.org/abs/2512.17251v1
- Date: Fri, 19 Dec 2025 05:36:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.254287
- Title: AlignDP: Hybrid Differential Privacy with Rarity-Aware Protection for LLMs
- Title(参考訳): AlignDP: LLMに対するRarity-Aware Protectionによるハイブリッド微分プライバシ
- Authors: Madhava Gaikwad,
- Abstract要約: データインターフェースにおける知識伝達をブロックするハイブリッドプライバシロックを設計する。
希少フィールドと非希少フィールドを分離することである。希少フィールドはPACの不識別性によって遮蔽され、ゼロエプシロン局所DPが有効となる。
非希少フィールドはRAPPORで民営化され、ローカルDPの下で非バイアス周波数推定を行う。
グローバルアグリゲータは構成と予算を強制する。この2層設計は稀なイベントを隠蔽し、頻繁に発生するイベントに制御ノイズを加える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models are exposed to risks of extraction, distillation, and unauthorized fine-tuning. Existing defenses use watermarking or monitoring, but these act after leakage. We design AlignDP, a hybrid privacy lock that blocks knowledge transfer at the data interface. The key idea is to separate rare and non-rare fields. Rare fields are shielded by PAC indistinguishability, giving effective zero-epsilon local DP. Non-rare fields are privatized with RAPPOR, giving unbiased frequency estimates under local DP. A global aggregator enforces composition and budget. This two-tier design hides rare events and adds controlled noise to frequent events. We prove limits of PAC extension to global aggregation, give bounds for RAPPOR estimates, and analyze utility trade-off. A toy simulation confirms feasibility: rare categories remain hidden, frequent categories are recovered with small error.
- Abstract(参考訳): 大規模な言語モデルは、抽出、蒸留、未認可の微調整のリスクにさらされている。
既存の防御は透かしや監視を用いるが、これらは漏れた後に作用する。
データインターフェースにおける知識転送をブロックするハイブリッドプライバシロックであるAlignDPを設計する。
鍵となる考え方は、希少フィールドと非希少フィールドを分離することである。
希少な磁場はPACの不分化性によって遮蔽され、ゼロエプシロン局所DPが有効である。
非希少フィールドはRAPPORで民営化され、ローカルDPの下で非バイアス周波数推定を行う。
グローバルアグリゲータは、構成と予算を強制します。
この2層設計は、まれなイベントを隠蔽し、頻繁に発生するイベントに制御されたノイズを追加する。
グローバルアグリゲーションへのPAC拡張の限界を証明し、RAPPOR推定の限界を与え、ユーティリティトレードオフを分析する。
おもちゃのシミュレーションは実現可能性を確認し、稀なカテゴリーは隠され、頻繁なカテゴリーは小さなエラーで回収される。
関連論文リスト
- Correlated-Sequence Differential Privacy [32.411989837842086]
Correlated-Sequence Differential Privacy (CSDP) は、関連するシーケンシャルデータにプライバシを保存するために設計されている。
CSDPは、2つの関連する課題に対処する: 攻撃者が共同時間リンクとクロスシーケンスリンクから得られる余分な情報を定量化し、その情報を隠すのに十分なノイズを追加する。
2シーケンスデータセットのテストでは、CSDPは既存の相関DPメソッドに比べて、プライバシーとユーティリティのトレードオフを約50%改善している。
論文 参考訳(メタデータ) (2025-11-22T11:28:59Z) - Perfectly-Private Analog Secure Aggregation in Federated Learning [51.61616734974475]
連合学習では、複数のパーティがモデルをローカルにトレーニングし、パラメータを中央サーバと共有する。
本稿では,有限場ではなくトーラスを用いた新しいセキュアパラメータアグリゲーション法を提案する。
論文 参考訳(メタデータ) (2025-09-10T15:22:40Z) - Frequency Estimation of Correlated Multi-attribute Data under Local Differential Privacy [5.258253745672122]
ローカル微分プライバシー(LDP)は、ユーザのデータプライバシを保護する強力なツールである。
既存のLDPメカニズムは、すべての属性にプライバシ予算を分割するか、それぞれの属性を独立して扱うかのいずれかである。
我々は属性間の相関を利用して実用性を大幅に向上する新しいLCP機構であるCorrelated Randomized Response (Corr-RR)を提案する。
論文 参考訳(メタデータ) (2025-07-23T13:52:45Z) - Beyond the Worst Case: Extending Differential Privacy Guarantees to Realistic Adversaries [17.780319275883127]
差別化プライバシ(differial Privacy)は、メカニズムの最悪のプライバシー漏洩に結びつく定義のファミリーである。
この研究は、現実のプライバシーリスクを代表する攻撃者の成功について、DPの最悪の保証がどんな意味を持つのかを浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-10T20:36:31Z) - Understanding the Impact of Data Domain Extraction on Synthetic Data Privacy [10.893644207618825]
プライバシ攻撃、特にメンバーシップ推論攻撃(MIA)は、合成データの生成モデルのプライバシを評価するために広く利用されている。
これらの攻撃は、データドメインの境界における位置のために特に脆弱な、アウトリーチを悪用することが多い。
本稿では,生成モデルにおけるデータ領域抽出の役割とプライバシ攻撃への影響について検討する。
論文 参考訳(メタデータ) (2025-04-11T04:35:24Z) - RASE: Efficient Privacy-preserving Data Aggregation against Disclosure Attacks for IoTs [2.1765174838950494]
センサデバイスが生み出すデータを収集・保護する新たなパラダイムについて検討する。
データアグリゲーションとプライバシ保護の共同設計に関するこれまでの研究は、信頼されたフュージョンセンターがプライバシ体制に準拠していることを前提としている。
本稿では,3段階の逐次手順,雑音付加,ランダムな置換,パラメータ推定に一般化可能な新しいパラダイム(RASE)を提案する。
論文 参考訳(メタデータ) (2024-05-31T15:21:38Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。