論文の概要: Robust Single-message Shuffle Differential Privacy Protocol for Accurate Distribution Estimation
- arxiv url: http://arxiv.org/abs/2603.05073v1
- Date: Thu, 05 Mar 2026 11:40:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.208727
- Title: Robust Single-message Shuffle Differential Privacy Protocol for Accurate Distribution Estimation
- Title(参考訳): 正確な分布推定のためのロバストシングルメッセージシャッフル微分プライバシープロトコル
- Authors: Xiaoguang Li, Hanyi Wang, Yaowei Huang, Jungang Yang, Qingqing Ye, Haonan Yan, Ke Pan, Zhe Sun, Hui Li,
- Abstract要約: シュッフルDPフレームワークである純粋シャッフルモデルに基づく分散推定について,強いセキュリティ仮定を伴わずに検討した。
本稿では, 単一メッセージ型テキストタダプティブ・シャフラー・プロトコル(ASP)を提案する。
- 参考スコア(独自算出の注目度): 29.22457447003792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shuffler-based differential privacy (shuffle-DP) is a privacy paradigm providing high utility by involving a shuffler to permute noisy report from users. Existing shuffle-DP protocols mainly focus on the design of shuffler-based categorical frequency oracle (SCFO) for frequency estimation on categorical data. However, numerical data is a more prevalent type and many real-world applications depend on the estimation of data distribution with ordinal nature. In this paper, we study the distribution estimation under pure shuffle model, which is a prevalent shuffle-DP framework without strong security assumptions. We initially attempt to transplant existing SCFOs and the naïve distribution recovery technique to this task, and demonstrate that these baseline protocols cannot simultaneously achieve outstanding performance in three metrics: 1) utility, 2) message complexity; and 3) robustness to data poisoning attacks. Therefore, we further propose a novel single-message \textit{adaptive shuffler-based piecewise} (ASP) protocol with high utility and robustness. In ASP, we first develop a randomizer by parameter optimization using our proposed tighter bound of mutual information. We also design an \textit{Expectation Maximization with Adaptive Smoothing} (EMAS) algorithm to accurately recover distribution with enhanced robustness. To quantify robustness, we propose a new evaluation framework to examine robustness under different attack targets, enabling us to comprehensively understand the protocol resilience under various adversarial scenarios. Extensive experiments demonstrate that ASP outperforms baseline protocols in all three metrics. Especially under small $ε$ values, ASP achieves an order of magnitude improvement in utility with minimal message complexity, and exhibits over threefold robustness compared to baseline methods.
- Abstract(参考訳): Shufflerベースのディファレンシャルプライバシ(shuffle-DP)は、ユーザからのノイズレポートをパーミュレートするシャッフルを伴って、高いユーティリティを提供するプライバシーパラダイムである。
既存のシャッフルDPプロトコルは主に、分類データに基づく周波数推定のためのシャッフルベースのカテゴリー周波数オラクル(SCFO)の設計に焦点を当てている。
しかし、数値データはより一般的な型であり、多くの実世界の応用は順序性のあるデータ分布の推定に依存する。
本稿では,シュッフルDPフレームワークである純粋シャッフルモデルに基づく分散推定について検討する。
当初我々は,既存のSCFOとナイーブ分布回復手法をこの課題に移植しようと試み,これらの基本プロトコルが3つの指標において同時に優れた性能を達成できないことを実証した。
1)実用性
2) メッセージの複雑さ,及び
3)データ中毒攻撃に対する堅牢性。
そこで本研究では,高実用性とロバスト性を有する新しいシングルメッセージであるtextit{adaptive shuffler-based piecewise} (ASP) プロトコルを提案する。
ASPでは、まずパラメータ最適化により、より厳密な相互情報境界を用いたランダム化器を開発する。
また,適応平滑化法(Adaptive Smoothing}:EMAS)アルゴリズムを設計し,ロバスト性を高めた分布を正確に復元する。
本研究では,異なる攻撃対象下でのロバスト性を評価するための新しい評価フレームワークを提案し,様々なシナリオ下でプロトコルのレジリエンスを包括的に理解できるようにする。
大規模な実験では、ASPは3つのメトリクスすべてでベースラインプロトコルより優れています。
特に$ε$の小さな値の下では、ASPはメッセージの複雑さを最小限に抑えたユーティリティの桁違いの改善を実現し、ベースラインメソッドと比較して3倍以上の堅牢性を示す。
関連論文リスト
- Benchmarking Few-shot Transferability of Pre-trained Models with Improved Evaluation Protocols [123.73663884421272]
より強力な事前訓練モデルと改良された適応アルゴリズムによって、わずかなショット転送が革新されている。
FEWTRANSは10種類のデータセットを含む総合的なベンチマークである。
FEWTRANS をリリースすることにより,数発の転写学習研究において再現性の向上を合理化するための厳密な "ルーラー" の提供を目指す。
論文 参考訳(メタデータ) (2026-02-28T05:41:57Z) - Fidelity-Aware Recommendation Explanations via Stochastic Path Integration [14.312396553281316]
説明の正確さは、モデルの真の推論をいかに正確に反映しているかを測るが、レコメンデーションシステムでは重要な過小評価が残されている。
本稿では,SPINRecを提案する。SPINRecはモデルに依存しない手法で,経路積分の手法を推薦データのスパースで暗黙的な性質に適応させる手法である。
SPINRecは、すべてのベースラインを一貫して上回り、推奨の忠実な説明可能性のための新しいベンチマークを確立している。
論文 参考訳(メタデータ) (2025-11-22T12:59:04Z) - Learning Discrete Bayesian Networks with Hierarchical Dirichlet Shrinkage [52.914168158222765]
我々はDBNを学習するための包括的なベイズ的フレームワークについて詳述する。
我々は、並列ランゲヴィン提案を用いてマルコフ連鎖モンテカルロ(MCMC)アルゴリズムを新たに提案し、正確な後続サンプルを生成する。
原発性乳癌検体から予後ネットワーク構造を明らかにするために本手法を適用した。
論文 参考訳(メタデータ) (2025-09-16T17:24:35Z) - Augmented Shuffle Protocols for Accurate and Robust Frequency Estimation under Differential Privacy [4.527947047128005]
本稿では,DPとロバスト性を提供する3つの具体的なプロトコルを提案する。
我々の最初のプロトコルは、二項分布から各項目のダミー値の数を生成する。
第2のプロトコルは,新しいダミー数分布を導入することにより,第1のプロトコルの有用性を大幅に向上させる。
論文 参考訳(メタデータ) (2025-04-10T01:06:05Z) - Lightweight Federated Learning with Differential Privacy and Straggler Resilience [19.94124499453864]
フェデレートラーニング(FL)は、生データの代わりにモデルパラメータ交換を通じて協調的なモデルトレーニングを可能にする。
パラメータ交換による潜在的な推論攻撃を避けるため、差分プライバシー(DP)は様々な攻撃に対して厳格な保証を提供する。
提案するLightDP-FLは,信頼できないピアやサーバに対して,証明可能なDPを保証する,新しい軽量なスキームである。
論文 参考訳(メタデータ) (2024-12-09T00:54:00Z) - Benchmarking Secure Sampling Protocols for Differential Privacy [3.0325535716232404]
微分プライバシ(DP)の2つのよく知られたモデルは、中心モデルと局所モデルである。
近年,分散環境でのセキュアマルチパーティ計算(MPC)によるDPの実現が提案されている。
論文 参考訳(メタデータ) (2024-09-16T19:04:47Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Privacy Amplification via Shuffled Check-Ins [2.3333090554192615]
シャッフルチェックインと呼ばれる分散計算のためのプロトコルについて検討する。
信頼できるシャフラー以上の信頼の前提を必要とせずに、強力なプライバシー保証を実現する。
シャッフルされたチェックインは、プライバシーの強化によって、厳格なプライバシー保証を実現する。
論文 参考訳(メタデータ) (2022-06-07T09:55:15Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Scalable Uncertainty Quantification for Deep Operator Networks using
Randomized Priors [14.169588600819546]
ディープ・オペレーター・ネットワーク(DeepONets)における後続不確実性定量化のための単純かつ効果的なアプローチを提案する。
我々は,ランダム化前のアンサンブルに基づく頻繁なアプローチを採用し,高速化ハードウェア上での高速並列推論のための効率的なベクトル化実装を提案する。
論文 参考訳(メタデータ) (2022-03-06T20:48:16Z) - Noise-Resistant Deep Metric Learning with Probabilistic Instance
Filtering [59.286567680389766]
ノイズラベルは現実世界のデータによく見られ、ディープニューラルネットワークの性能劣化を引き起こす。
DMLのための確率的ランク付けに基づくメモリを用いたインスタンス選択(PRISM)手法を提案する。
PRISMはラベルがクリーンである確率を計算し、潜在的にノイズの多いサンプルをフィルタリングする。
論文 参考訳(メタデータ) (2021-08-03T12:15:25Z) - Improved, Deterministic Smoothing for L1 Certified Robustness [119.86676998327864]
分割雑音を伴う非加法的決定論的平滑化法(dssn)を提案する。
一様加法平滑化とは対照的に、ssn認証は無作為なノイズコンポーネントを独立に必要としない。
これは、規範ベースの敵対的脅威モデルに対して決定論的「ランダム化平滑化」を提供する最初の仕事である。
論文 参考訳(メタデータ) (2021-03-17T21:49:53Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。