論文の概要: Learning the Optimal Stopping for Early Classification within Finite Horizons via Sequential Probability Ratio Test
- arxiv url: http://arxiv.org/abs/2501.18059v1
- Date: Wed, 29 Jan 2025 23:54:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-31 15:12:47.902797
- Title: Learning the Optimal Stopping for Early Classification within Finite Horizons via Sequential Probability Ratio Test
- Title(参考訳): 逐次確率比検定による有限ホライズンズ内早期分類のための最適停止学習
- Authors: Akinori F. Ebihara, Taiki Miyagawa, Kazuyuki Sakurai, Hitoshi Imaoka,
- Abstract要約: 時系列の早期分類に最適な停止時間を提供するSPRT(Sequential Probability Ratio Test)による、時間に敏感な機械学習の利点。
入力長が有限である有限地平線シナリオでは、後ろ向きの誘導を必要とするため、最適停止規則を決定することが計算集約化される。
本稿では,SPRTベースのフレームワークであるFIRMBOUNDを紹介する。
- 参考スコア(独自算出の注目度): 11.199585259018459
- License:
- Abstract: Time-sensitive machine learning benefits from Sequential Probability Ratio Test (SPRT), which provides an optimal stopping time for early classification of time series. However, in finite horizon scenarios, where input lengths are finite, determining the optimal stopping rule becomes computationally intensive due to the need for backward induction, limiting practical applicability. We thus introduce FIRMBOUND, an SPRT-based framework that efficiently estimates the solution to backward induction from training data, bridging the gap between optimal stopping theory and real-world deployment. It employs density ratio estimation and convex function learning to provide statistically consistent estimators for sufficient statistic and conditional expectation, both essential for solving backward induction; consequently, FIRMBOUND minimizes Bayes risk to reach optimality. Additionally, we present a faster alternative using Gaussian process regression, which significantly reduces training time while retaining low deployment overhead, albeit with potential compromise in statistical consistency. Experiments across independent and identically distributed (i.i.d.), non-i.i.d., binary, multiclass, synthetic, and real-world datasets show that FIRMBOUND achieves optimalities in the sense of Bayes risk and speed-accuracy tradeoff. Furthermore, it advances the tradeoff boundary toward optimality when possible and reduces decision-time variance, ensuring reliable decision-making. Code is publicly available at https://github.com/Akinori-F-Ebihara/FIRMBOUND
- Abstract(参考訳): 時系列の早期分類に最適な停止時間を提供するSPRT(Sequential Probability Ratio Test)による、時間に敏感な機械学習の利点。
しかし、入力長が有限である有限地平線シナリオでは、後ろ向きの誘導を必要とするため、最適停止規則が計算集約化され、実用的な適用性が制限される。
そこで我々は,SPRTベースのフレームワークであるFIRMBOUNDを導入し,学習データから後方誘導の解を効率的に推定し,最適停止理論と実世界の展開のギャップを埋める。
密度比推定と凸関数学習を用い、統計的に整合性のある予測値を提供し、後方誘導を解くのに必須であり、その結果、FIRMBOUNDはベイズリスクを最小化し、最適性に達する。
さらに,Gussianプロセスレグレッションを用いた高速な代替手法を提案する。これは,統計的整合性の潜在的な妥協を伴いながら,低デプロイメントオーバーヘッドを維持しながらトレーニング時間を著しく短縮する。
独立および同一分布(d.d.)、非分散、バイナリ、マルチクラス、合成、および実世界のデータセットによる実験は、FIRMBOUNDがベイズリスクと速度精度のトレードオフという意味で最適性を達成することを示している。
さらに、トレードオフ境界を可能な限り最適に進め、決定時間のばらつきを低減し、信頼性の高い意思決定を保証する。
コードはhttps://github.com/Akinori-F-Ebihara/FIRMBOUNDで公開されている。
関連論文リスト
- Statistical Inference for Temporal Difference Learning with Linear Function Approximation [62.69448336714418]
時間差差(TD)学習は、おそらく政策評価に最も広く使用されるものであり、この目的の自然な枠組みとして機能する。
本稿では,Polyak-Ruppert平均化と線形関数近似によるTD学習の整合性について検討し,既存の結果よりも3つの重要な改善点を得た。
論文 参考訳(メタデータ) (2024-10-21T15:34:44Z) - Relaxed Quantile Regression: Prediction Intervals for Asymmetric Noise [51.87307904567702]
量子レグレッション(Quantile regression)は、出力の分布における量子の実験的推定を通じてそのような間隔を得るための主要なアプローチである。
本稿では、この任意の制約を除去する量子回帰に基づく区間構成の直接的な代替として、Relaxed Quantile Regression (RQR)を提案する。
これにより、柔軟性が向上し、望ましい品質が向上することが実証された。
論文 参考訳(メタデータ) (2024-06-05T13:36:38Z) - High Confidence Level Inference is Almost Free using Parallel Stochastic
Optimization [16.38026811561888]
本稿では,高効率計算と高速収束による信頼区間構築に焦点をあてた新しい推論手法を提案する。
提案手法は,推定値の標準的な更新を超える最小限の計算量とメモリを必要とするため,推論処理はほとんどコストがかからない。
論文 参考訳(メタデータ) (2024-01-17T17:11:45Z) - A Specialized Semismooth Newton Method for Kernel-Based Optimal
Transport [92.96250725599958]
カーネルベース最適輸送(OT)推定器は、サンプルからOT問題に対処するための代替的機能的推定手順を提供する。
SSN法は, 標準正規性条件下でのグローバル収束率$O (1/sqrtk)$, 局所二次収束率を達成できることを示す。
論文 参考訳(メタデータ) (2023-10-21T18:48:45Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Improved uncertainty quantification for neural networks with Bayesian
last layer [0.0]
不確実性定量化は機械学習において重要な課題である。
本稿では,BLL を用いた NN の対数乗算可能性の再構成を行い,バックプロパゲーションを用いた効率的なトレーニングを実現する。
論文 参考訳(メタデータ) (2023-02-21T20:23:56Z) - Probability estimation and structured output prediction for learning
preferences in last mile delivery [11.23854308665717]
最終マイル配送の文脈でドライバーとプランナーの好みを学習する問題について検討する。
1つは、停止(またはゾーン)間の遷移確率を学習する確率推定法である。
ゾーン遷移確率推定は良好に動作し、構造化された出力予測学習によりさらなる結果が得られることを示す。
論文 参考訳(メタデータ) (2022-01-25T12:28:21Z) - Gaining Outlier Resistance with Progressive Quantiles: Fast Algorithms
and Theoretical Studies [1.6457778420360534]
任意の損失関数を強固化するために, 外部抵抗推定の枠組みを導入する。
通常のデータセットでは、データ再見積の回数を大幅に削減できるような、開始点の要件を緩和する新しい手法が提案されている。
得られた推定器は、必ずしも大域的でも大域的でもなくても、両方の低次元において最適性を楽しむことができる。
論文 参考訳(メタデータ) (2021-12-15T20:35:21Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Online Stochastic Convex Optimization: Wasserstein Distance Variation [15.313864176694832]
滑らかな凸関数の期待値の最小値を追跡するためのオンライン近勾配法について検討する。
システムや制御文献にインスパイアされた推定・追跡誤差の概念を再考する。
我々は、強い凸性、勾配のリプシッツ性、確率分布のドリフトに対する境界を与える。
論文 参考訳(メタデータ) (2020-06-02T05:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。