論文の概要: Nonparametric Density Estimation under Distribution Drift
- arxiv url: http://arxiv.org/abs/2302.02460v2
- Date: Fri, 27 Oct 2023 18:45:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 23:13:40.830475
- Title: Nonparametric Density Estimation under Distribution Drift
- Title(参考訳): 分布ドリフト下における非パラメトリック密度推定
- Authors: Alessio Mazzetto, Eli Upfal
- Abstract要約: 我々は離散的および連続的な滑らかな密度の両方に対して、厳密なミニマックスリスク境界を証明した。
本手法は,ドリフトモデルの幅広いクラスを扱い,ドリフト下での非依存学習に関する過去の結果を一般化する。
- 参考スコア(独自算出の注目度): 6.599344783327055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study nonparametric density estimation in non-stationary drift settings.
Given a sequence of independent samples taken from a distribution that
gradually changes in time, the goal is to compute the best estimate for the
current distribution. We prove tight minimax risk bounds for both discrete and
continuous smooth densities, where the minimum is over all possible estimates
and the maximum is over all possible distributions that satisfy the drift
constraints. Our technique handles a broad class of drift models, and
generalizes previous results on agnostic learning under drift.
- Abstract(参考訳): 非定常ドリフト設定における非パラメトリック密度推定について検討する。
時間的に徐々に変化する分布から取り出された独立したサンプルの列を考えると、目標は現在の分布の最適な推定値を計算することである。
離散的および連続的な滑らかな密度の両方に対して、最小はすべての可能な推定値、最大はドリフト制約を満たす全ての可能な分布に対して、厳密なミニマックスリスク境界を証明する。
本手法は幅広いドリフトモデルに対応し,ドリフト下の非依存学習に関するこれまでの結果を一般化する。
関連論文リスト
- Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
本報告では,明示的な次元の一般スコアミスマッチ拡散サンプリング器を用いた最初の性能保証について述べる。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - Convergence of Score-Based Discrete Diffusion Models: A Discrete-Time Analysis [56.442307356162864]
連続時間マルコフ連鎖(CTMC)に基づくスコアベース離散拡散モデルの理論的側面について検討する。
本稿では,事前定義された時間点におけるスコア推定値を利用する離散時間サンプリングアルゴリズムを一般状態空間$[S]d$に導入する。
我々の収束解析はジルサノフ法を用いて離散スコア関数の重要な性質を確立する。
論文 参考訳(メタデータ) (2024-10-03T09:07:13Z) - (De)-regularized Maximum Mean Discrepancy Gradient Flow [27.70783952195201]
本稿では,最大平均離散(DrMMD)とワッサーシュタイン勾配流の正則化を導入する。
DrMMDフローは、連続時間と離散時間の両方において、広範囲の目標に対して、同時にニア・グロバル収束を保証することができる。
我々の数値スキームは、フロー全体を通して適応的な非正規化スケジュールを使用して、離散化誤差と$chi2$の規則からの逸脱を最適にトレードオフする。
論文 参考訳(メタデータ) (2024-09-23T12:57:42Z) - An Improved Algorithm for Learning Drifting Discrete Distributions [2.2191203337341525]
分散ドリフト下で離散分布を学習するための新しい適応アルゴリズムを提案する。
時間とともに変化する離散分布から独立したサンプルの列を観察し、その目標は現在の分布を推定することである。
より多くのサンプルを使用するには、過去にさらにサンプルに頼らなければならず、分布の変化によって生じるバイアスによりドリフトエラーが発生する。
ドリフトに関する事前の知識を必要とせずにこのトレードオフを解くことができる新しい適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-08T16:54:27Z) - Statistical Estimation Under Distribution Shift: Wasserstein
Perturbations and Minimax Theory [24.540342159350015]
我々はWasserstein分布シフトに注目し、各データポイントがわずかに摂動する可能性がある。
データポイント間の独立あるいは協調的な関節シフトである摂動について検討する。
位置推定,線形回帰,非パラメトリック密度推定など,いくつかの重要な統計問題を解析する。
論文 参考訳(メタデータ) (2023-08-03T16:19:40Z) - Keep it Tighter -- A Story on Analytical Mean Embeddings [0.6445605125467574]
カーネル技術は、データサイエンスにおいて最も人気があり柔軟なアプローチの一つである。
平均埋め込みは、最大平均不一致(MMD)と呼ばれる分岐測度をもたらす。
本稿では,基礎となる分布の1つの平均埋め込みが解析的に利用可能である場合のMDD推定の問題に焦点をあてる。
論文 参考訳(メタデータ) (2021-10-15T21:29:27Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Continuous Wasserstein-2 Barycenter Estimation without Minimax
Optimization [94.18714844247766]
ワッサーシュタイン・バリセンターは、最適輸送に基づく確率測度の重み付き平均の幾何学的概念を提供する。
本稿では,Wasserstein-2 バリセンタのサンプルアクセスを演算するスケーラブルなアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-02T21:01:13Z) - Robust Density Estimation under Besov IPM Losses [10.079698681921672]
ハマー汚染モデルにおける非パラメトリック密度推定の最小収束率について検討した。
再スケールされた閾値ウェーブレット級数推定器は,多種多様な損失の下で最小収束率を達成することを示す。
論文 参考訳(メタデータ) (2020-04-18T11:30:35Z) - Log-Likelihood Ratio Minimizing Flows: Towards Robust and Quantifiable
Neural Distribution Alignment [52.02794488304448]
そこで本研究では,対数様比統計量と正規化フローに基づく新しい分布アライメント手法を提案する。
入力領域の局所構造を保存する領域アライメントにおいて,結果の最小化を実験的に検証する。
論文 参考訳(メタデータ) (2020-03-26T22:10:04Z) - Minimax Optimal Estimation of KL Divergence for Continuous Distributions [56.29748742084386]
Kullback-Leibler の同一および独立に分布するサンプルからの発散は、様々な領域において重要な問題である。
単純で効果的な推定器の1つは、これらのサンプル間の近辺 k に基づいている。
論文 参考訳(メタデータ) (2020-02-26T16:37:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。