論文の概要: Learning under Distributional Drift: Reproducibility as an Intrinsic Statistical Resource
- arxiv url: http://arxiv.org/abs/2512.13506v1
- Date: Mon, 15 Dec 2025 16:34:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.755429
- Title: Learning under Distributional Drift: Reproducibility as an Intrinsic Statistical Resource
- Title(参考訳): 分散ドリフト下の学習:本質的な統計資源としての再現性
- Authors: Sofiya Zaichyk,
- Abstract要約: 統計解析のためのシステムの有限容量を定量化する新しい統計プリミティブである予算$C_T$を導入する。
平均フィッシャー・ラオドリフトレートよりも小さなケース一般化誤差を達成するアルゴリズムはない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Statistical learning under distributional drift remains insufficiently characterized: when each observation alters the data-generating law, classical generalization bounds can collapse. We introduce a new statistical primitive, the reproducibility budget $C_T$, which quantifies a system's finite capacity for statistical reproducibility - the extent to which its sampling process can remain governed by a consistent underlying distribution in the presence of both exogenous change and endogenous feedback. Formally, $C_T$ is defined as the cumulative Fisher-Rao path length of the coupled learner-environment evolution, measuring the total distributional motion accumulated during learning. From this construct we derive a drift-feedback generalization bound of order $O(T^{-1/2} + C_T/T)$, and we prove a matching minimax lower bound showing that this rate is minimax-optimal. Consequently, the results establish a reproducibility speed limit: no algorithm can achieve smaller worst-case generalization error than that imposed by the average Fisher-Rao drift rate $C_T/T$ of the data-generating process. The framework situates exogenous drift, adaptive data analysis, and performative prediction within a common geometric structure, with $C_T$ emerging as the intrinsic quantity measuring distributional motion across these settings.
- Abstract(参考訳): 各観測がデータ生成法則を変更すると、古典的な一般化境界が崩壊する。
統計的再現性のためのシステムの有限容量を定量化する新しい統計プリミティブである$C_T$を導入し、そのサンプリングプロセスが外因性変化と内因性フィードバックの両方の存在下で一貫した基礎的分布によって制御される範囲について述べる。
正式には、$C_T$は、学習中に蓄積された総分布運動を測定し、結合学習者環境進化の累積的フィッシャー・ラオ経路長として定義される。
この構成から、次数$O(T^{-1/2} + C_T/T)$のドリフト-フィードバック一般化境界を導出し、一致するミニマックス下界を証明し、この速度がミニマックス最適であることを示す。
その結果, 平均フィッシャー・ラオドリフトレート$C_T/T$よりも最小ケースの一般化誤差が小さいアルゴリズムは存在しない。
このフレームワークは、共通幾何学構造内の外因性ドリフト、適応データ解析、およびパフォーマンス予測を、これらの設定間の分布運動を測定する本質的な量として、$C_T$で表す。
関連論文リスト
- Generative Modeling with Continuous Flows: Sample Complexity of Flow Matching [60.37045080890305]
本稿では,フローマッチングに基づく生成モデルにおいて,サンプルの複雑さを初めて解析する。
速度場推定誤差をニューラルネットワーク近似誤差、有限標本サイズによる統計的誤差、速度場推定のための有限個の最適化ステップによる最適化誤差に分解する。
論文 参考訳(メタデータ) (2025-12-01T05:14:25Z) - Adaptivity and Convergence of Probability Flow ODEs in Diffusion Generative Models [5.064404027153094]
本稿では,その実用性で知られた拡散型サンプル装置である,確率フローODEの理論的保証の確立に寄与する。
精度の高いスコア関数推定では,確率フローODEサンプリング器は全変動距離において$O(k/T)$の収束率を達成する。
この次元自由収束速度は、通常より大きな周囲次元でスケールする既存の結果を改善する。
論文 参考訳(メタデータ) (2025-01-31T03:10:10Z) - O(d/T) Convergence Theory for Diffusion Probabilistic Models under Minimal Assumptions [6.76974373198208]
最小の仮定の下で,拡散確率モデル(DDPM)の高速収束理論を確立する。
収束率は$O(k/T)$に改善され、$k$は対象データ分布の内在次元であることを示す。
これはDDPMが未知の低次元構造に自動的に適応する能力を強調している。
論文 参考訳(メタデータ) (2024-09-27T17:59:10Z) - Generalization error of min-norm interpolators in transfer learning [2.7309692684728617]
最小ノルム補間器は、現代の機械学習アルゴリズムの暗黙の正規化限界として自然に現れる。
多くのアプリケーションでは、トレーニング中に限られた量のテストデータが利用できるが、この設定におけるmin-normの特性は十分に理解されていない。
我々はこれらの特徴を達成するために、新しい異方性局所法を確立した。
論文 参考訳(メタデータ) (2024-06-20T02:23:28Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - A Statistical Learning View of Simple Kriging [0.0]
統計的学習の観点から,簡単なKrigingタスクを解析する。
目標は、最小2次リスクで他の場所にある未知の値を予測することである。
我々は、真の最小化を模倣するプラグイン予測則の過剰なリスクに対して、$O_mathbbP (1/sqrtn)$の非漸近境界を証明した。
論文 参考訳(メタデータ) (2022-02-15T12:46:43Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - SLOE: A Faster Method for Statistical Inference in High-Dimensional
Logistic Regression [68.66245730450915]
実用データセットに対する予測の偏見を回避し、頻繁な不確実性を推定する改善された手法を開発している。
私たちの主な貢献は、推定と推論の計算時間をマグニチュードの順序で短縮する収束保証付き信号強度の推定器SLOEです。
論文 参考訳(メタデータ) (2021-03-23T17:48:56Z) - Log-Likelihood Ratio Minimizing Flows: Towards Robust and Quantifiable
Neural Distribution Alignment [52.02794488304448]
そこで本研究では,対数様比統計量と正規化フローに基づく新しい分布アライメント手法を提案する。
入力領域の局所構造を保存する領域アライメントにおいて,結果の最小化を実験的に検証する。
論文 参考訳(メタデータ) (2020-03-26T22:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。