論文の概要: Missing Mass for Differentially Private Domain Discovery
- arxiv url: http://arxiv.org/abs/2603.14016v1
- Date: Sat, 14 Mar 2026 16:42:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.548207
- Title: Missing Mass for Differentially Private Domain Discovery
- Title(参考訳): 分別的ドメイン発見のためのミサの欠如
- Authors: Travis Dick, Matthew Joseph, Vinod Raman,
- Abstract要約: 我々は,各ユーザが共有されているが未知のドメインからの項目のサブセットを保持する,差分プライベートドメイン発見におけるいくつかの問題について検討する。
集合和に対して、単純ベースラインのガウス重み付け機構 (WGM) がほぼ最適の $ell_infty$ の質量保証を欠いていることを示す。
次に、WGMを、プライベートのトップ$k$および$k$-hitting集合に対する既存の既知のドメインアルゴリズムのドメイン発見前駆体として適用し、未知のドメイン変種に対する新しいユーティリティ保証を得る。
- 参考スコア(独自算出の注目度): 17.210204200680177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study several problems in differentially private domain discovery, where each user holds a subset of items from a shared but unknown domain, and the goal is to output an informative subset of items. For set union, we show that the simple baseline Weighted Gaussian Mechanism (WGM) has a near-optimal $\ell_1$ missing mass guarantee on Zipfian data as well as a distribution-free $\ell_\infty$ missing mass guarantee. We then apply the WGM as a domain-discovery precursor for existing known-domain algorithms for private top-$k$ and $k$-hitting set and obtain new utility guarantees for their unknown domain variants. Finally, experiments demonstrate that all of our WGM-based methods are competitive with or outperform existing baselines for all three problems.
- Abstract(参考訳): 本研究では,各ユーザが共有されているが未知のドメインからアイテムのサブセットを保有する,差分プライベートドメイン探索におけるいくつかの問題について検討し,その目的として,アイテムのインフォメーションサブセットを出力することである。
集合和に対して、単純な基底線Weighted Gaussian Mechanism (WGM) は、Zipfian のデータに対するほぼ最適の $\ell_1$ の質量保証と、分布のない $\ell_\infty$ の質量保証を持つことを示す。
次に、WGMを、プライベートのトップ$k$および$k$-hitting集合に対する既存の既知のドメインアルゴリズムのドメイン発見前駆体として適用し、未知のドメイン変種に対する新しいユーティリティ保証を得る。
最後に、実験により、我々のWGMベースの手法は3つの問題すべてに対して、既存のベースラインと競合するか、上回っていることが示される。
関連論文リスト
- Beyond Laplace and Gaussian: Exploring the Generalized Gaussian Mechanism for Private Machine Learning [49.66162382667325]
一般化ガウス機構(英語版)を考察し、ある$beta geq 1$に対して$e-frac| x |sigmabeta $ に比例した付加雑音項 $x$ をサンプリングする。
GGメカニズムとその変種に対するプライバシ会計は独立であり、プライバシ会計の計算コストを大幅に向上させることを示す。
論文 参考訳(メタデータ) (2025-06-14T15:49:25Z) - DISPEL: Domain Generalization via Domain-Specific Liberating [19.21625050855744]
ドメインの一般化は、限られたソースドメインでのみトレーニングすることで、目に見えないテストドメインでうまく機能するモデルを学ぶことを目的としています。
本研究では,DomaIn-SPEcific Liberating (DISPEL)を提案する。
論文 参考訳(メタデータ) (2023-07-14T06:21:03Z) - General Gaussian Noise Mechanisms and Their Optimality for Unbiased Mean
Estimation [58.03500081540042]
プライベート平均推定に対する古典的なアプローチは、真の平均を計算し、バイアスのないがおそらく相関のあるガウスノイズを加えることである。
すべての入力データセットに対して、集中的な差分プライバシーを満たす非バイアス平均推定器が、少なくとも多くのエラーをもたらすことを示す。
論文 参考訳(メタデータ) (2023-01-31T18:47:42Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Bayesian decision-making under misspecified priors with applications to
meta-learning [64.38020203019013]
トンプソンサンプリングやその他のシーケンシャルな意思決定アルゴリズムは、文脈的包帯における探索と探索のトレードオフに取り組むための一般的なアプローチである。
性能は不特定な事前条件で優雅に低下することを示す。
論文 参考訳(メタデータ) (2021-07-03T23:17:26Z) - Generalizable Representation Learning for Mixture Domain Face
Anti-Spoofing [53.82826073959756]
ドメイン一般化(DG)に基づく対スプーフィングアプローチは、予期せぬシナリオの堅牢性のために注目を集めています。
ドメインダイナミック調整メタラーニング(D2AM)についてドメインラベルを使わずに提案する。
この制限を克服するため,ドメインダイナミック調整メタラーニング(D2AM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T06:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。