論文の概要: Better Private Distribution Testing by Leveraging Unverified Auxiliary Data
- arxiv url: http://arxiv.org/abs/2503.14709v1
- Date: Tue, 18 Mar 2025 20:17:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:24:00.085333
- Title: Better Private Distribution Testing by Leveraging Unverified Auxiliary Data
- Title(参考訳): 未検証補助データを活用するプライベートディストリビューションテストの改善
- Authors: Maryam Aliakbarpour, Arnav Burudgunte, Clément Cannone, Ronitt Rubinfeld,
- Abstract要約: 拡張分散テストのフレームワークを、微分プライベートな設定にまで拡張する。
これは、データアナリストが機密データ上で仮説テストタスクを実行しなければならないシナリオをキャプチャする。
3つのフラグシップディストリビューションテストタスクのために,この拡張設定でプライベートアルゴリズムを設計する。
- 参考スコア(独自算出の注目度): 5.494277056423046
- License:
- Abstract: We extend the framework of augmented distribution testing (Aliakbarpour, Indyk, Rubinfeld, and Silwal, NeurIPS 2024) to the differentially private setting. This captures scenarios where a data analyst must perform hypothesis testing tasks on sensitive data, but is able to leverage prior knowledge (public, but possibly erroneous or untrusted) about the data distribution. We design private algorithms in this augmented setting for three flagship distribution testing tasks, uniformity, identity, and closeness testing, whose sample complexity smoothly scales with the claimed quality of the auxiliary information. We complement our algorithms with information-theoretic lower bounds, showing that their sample complexity is optimal (up to logarithmic factors).
- Abstract(参考訳): 拡張分散テストのフレームワーク(Aliakbarpour, Indyk, Rubinfeld, Silwal, NeurIPS 2024)を微分プライベートな設定に拡張する。
これは、データアナリストが機密データ上で仮説テストタスクを実行しなければならないシナリオをキャプチャするが、データ分散に関する事前知識(パブリックだが、誤った、あるいは信頼できない)を活用することができる。
この拡張環境では,3つのフラッグシップ分散テストタスク,均一性,アイデンティティ,近接性テストのためのプライベートアルゴリズムを設計する。
我々は,アルゴリズムを情報理論的下界で補完し,サンプルの複雑さが最適であることを示す(対数因子まで)。
関連論文リスト
- Optimal Algorithms for Augmented Testing of Discrete Distributions [25.818433126197036]
予測器は3つのプロパティテストタスクすべてに必要なサンプル数を実際に削減できることを示す。
我々のアルゴリズムの重要な利点は、予測の精度への適応性である。
アルゴリズムによって達成されるサンプルの複雑さの改善は、情報理論的に最適であることを示すために、より低い境界を提供する。
論文 参考訳(メタデータ) (2024-12-01T21:31:22Z) - Distributed, communication-efficient, and differentially private estimation of KL divergence [15.294136011320433]
分散された機密性の高いデータを管理する上で重要なタスクは、分散の変化の度合いを測定することである。
差分プライバシの下で,計算のフェデレーションモデル間でのKL分散を推定するための新しいアルゴリズムアプローチについて述べる。
論文 参考訳(メタデータ) (2024-11-25T15:20:40Z) - Federated Nonparametric Hypothesis Testing with Differential Privacy Constraints: Optimal Rates and Adaptive Tests [5.3595271893779906]
フェデレート学習は、さまざまな場所でデータが収集され分析される広範囲な設定で適用可能であることから、近年大きな注目を集めている。
分散差分プライバシー(DP)制約下でのホワイトノイズ・ウィズ・ドリフトモデルにおける非パラメトリック適合性試験について検討した。
論文 参考訳(メタデータ) (2024-06-10T19:25:19Z) - Differentially Private Synthetic Data with Private Density Estimation [2.209921757303168]
我々は、差分プライバシーの枠組みを採用し、データセット全体を生成するメカニズムを探究する。
我々はBoedihardjoらの研究に基づいて、プライベートな合成データを生成するための新しい最適化ベースのアルゴリズムの基礎を築いた。
論文 参考訳(メタデータ) (2024-05-06T14:06:12Z) - Diverse Data Augmentation with Diffusions for Effective Test-time Prompt
Tuning [73.75282761503581]
DiffTPTを提案する。DiffTPTは,事前学習した拡散モデルを用いて,多種多様な情報データを生成する。
DiffTPTがゼロショット精度を平均5.13%向上することを示す。
論文 参考訳(メタデータ) (2023-08-11T09:36:31Z) - On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Assaying Out-Of-Distribution Generalization in Transfer Learning [103.57862972967273]
私たちは、経験的に対処するメッセージの相違を強調して、以前の作業の統一的なビューを取ります。
私たちは9つの異なるアーキテクチャから、多数の、あるいは少数の設定で31K以上のネットワークを微調整しました。
論文 参考訳(メタデータ) (2022-07-19T12:52:33Z) - Generalization in the Face of Adaptivity: A Bayesian Perspective [3.0202264016476623]
適応的に選択されたクエリによるデータサンプルの繰り返し使用は、急速に過度な適合につながる可能性がある。
単純なノイズアンバウンド付加アルゴリズムは、この問題を防ぐのに十分であることがわかった。
提案手法では, 過去のクエリに対する応答にデータサンプルに関する情報がどの程度エンコードされたか, ベイズ因子と新しいクエリの共分散から適応性の害が生じることを示す。
論文 参考訳(メタデータ) (2021-06-20T22:06:44Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。