論文の概要: Agnostic Private Density Estimation via Stable List Decoding
- arxiv url: http://arxiv.org/abs/2407.04783v1
- Date: Fri, 5 Jul 2024 18:00:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 22:36:40.234670
- Title: Agnostic Private Density Estimation via Stable List Decoding
- Title(参考訳): 安定リストデコーディングによる非依存的個人密度推定
- Authors: Mohammad Afzali, Hassan Ashtiani, Christopher Liaw,
- Abstract要約: 分布のクラスが安定なリストデオード可能であれば、非依存的な設定でプライベートに学習できることが示される。
筆者らのフレームワークの主用途として, 私的密度推定のサンプル複雑性に関する最初の上限を証明した。
- 参考スコア(独自算出の注目度): 9.649879910148854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new notion of stability--which we call stable list decoding--and demonstrate its applicability in designing differentially private density estimators. This definition is weaker than global stability [ABLMM22] and is related to the notions of replicability [ILPS22] and list replicability [CMY23]. We show that if a class of distributions is stable list decodable, then it can be learned privately in the agnostic setting. As the main application of our framework, we prove the first upper bound on the sample complexity of private density estimation for Gaussian Mixture Models in the agnostic setting, extending the realizable result of Afzali et al. [AAL24].
- Abstract(参考訳): 安定リストデコーディング(stable list decoding)と呼ばれる新しい安定性の概念を導入し、微分プライベート密度推定器の設計への適用性を実証する。
この定義は、大域的安定性 [ABLMM22] よりも弱く、複製性 [ILPS22] とリスト複製性 [CMY23] の概念と関連している。
分布のクラスが安定なリストデオード可能であれば、非依存的な設定でプライベートに学習できることが示される。
筆者らのフレームワークの主な応用として,ガウス混合モデル(Gaussian Mixture Models, Afzali et al [AAL24])における個人密度推定のサンプル複雑性に関する最初の上限を証明し,Afzaliらによる実現可能な結果を拡張した。
関連論文リスト
- Regulating Model Reliance on Non-Robust Features by Smoothing Input Marginal Density [93.32594873253534]
信頼できる機械学習は、非ロバストな特徴に依存するモデルの厳密な規制を必要とする。
本稿では,モデル予測を入力に関連付けることによって,そのような特徴を記述・規制するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-05T09:16:56Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Predicting generalization performance with correctness discriminators [64.00420578048855]
未確認データに対して,金のラベルを必要とせず,精度の上下境界を確立する新しいモデルを提案する。
予測された上境界と下限の間に金の精度が確実に成立する様々なタグ付け、構文解析、意味解析タスクを示す。
論文 参考訳(メタデータ) (2023-11-15T22:43:42Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Spuriosity Didn't Kill the Classifier: Using Invariant Predictions to
Harness Spurious Features [19.312258609611686]
安定フィーチャーブースティング(SFB)は、安定かつ条件に依存しない不安定な特徴を分離する予測器を学習するためのアルゴリズムである。
SFBはテストドメインラベルを使わずに最適な予測器を学習できることを示す。
実データおよび合成データに対するSFBの有効性を実証的に示す。
論文 参考訳(メタデータ) (2023-07-19T12:15:06Z) - Bagging Provides Assumption-free Stability [11.456416081243654]
バギングは、機械学習モデルを安定化するための重要なテクニックである。
本稿では,任意のモデルに対するバギングの安定性に関する有限サンプル保証を導出する。
論文 参考訳(メタデータ) (2023-01-30T01:18:05Z) - Boosting the Confidence of Generalization for $L_2$-Stable Randomized
Learning Algorithms [41.082982732100696]
適切に設計されたサブバッグプロセスは、データとアルゴリズムの両方にほぼ28の指数関数的一般化バウンダリをもたらすことを示す。
さらに、自然減衰学習率を持つ凸問題や非重み付き問題に対する高確率一般化境界を改善するために、総合的な結果を導出する。
論文 参考訳(メタデータ) (2022-06-08T12:14:01Z) - Private Robust Estimation by Stabilizing Convex Relaxations [22.513117502159922]
$(epsilon, delta)$-differentially private (DP)
$(epsilon, delta)$-differentially private (DP)
$(epsilon, delta)$-differentially private (DP)
論文 参考訳(メタデータ) (2021-12-07T07:47:37Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Stability Enhanced Privacy and Applications in Private Stochastic
Gradient Descent [6.896797484250303]
安定性が向上すれば、プライバシーが向上し、プライバシーユーティリティが確立される。
実験は、均一な弾力性保証と選択によるプライバシー保証の有用性を検証する。
論文 参考訳(メタデータ) (2020-06-25T13:04:18Z) - Fine-Grained Analysis of Stability and Generalization for Stochastic
Gradient Descent [55.85456985750134]
我々は,SGDの反復的リスクによって制御される新しい境界を開発する,平均モデル安定性と呼ばれる新しい安定性尺度を導入する。
これにより、最良のモデルの振舞いによって一般化境界が得られ、低雑音環境における最初の既知の高速境界が導かれる。
我々の知る限りでは、このことはSGDの微分不能な損失関数でさえも初めて知られている安定性と一般化を与える。
論文 参考訳(メタデータ) (2020-06-15T06:30:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。