論文の概要: Probit Monotone BART
- arxiv url: http://arxiv.org/abs/2509.00263v1
- Date: Fri, 29 Aug 2025 22:19:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.151355
- Title: Probit Monotone BART
- Title(参考訳): プロビットモノトンBART
- Authors: Jared D. Fisher,
- Abstract要約: 結果変数がバイナリである場合,BARTフレームワークが条件平均関数を推定できるプロビットモノトンBARTを提案する。
BART of Chipman et al. (2010) は非パラメトリックなモデリングと予測のための強力なツールであることが証明されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian Additive Regression Trees (BART) of Chipman et al. (2010) has proven to be a powerful tool for nonparametric modeling and prediction. Monotone BART (Chipman et al., 2022) is a recent development that allows BART to be more precise in estimating monotonic functions. We further these developments by proposing probit monotone BART, which allows the monotone BART framework to estimate conditional mean functions when the outcome variable is binary.
- Abstract(参考訳): Chipman et al (2010) の Bayesian Additive Regression Trees (BART) は、非パラメトリックなモデリングと予測のための強力なツールであることが証明されている。
モノトン BART (Chipman et al , 2022) は、モノトニック関数を推定する上でBARTをより正確にするための最近の開発である。
結果変数がバイナリである場合の条件平均関数をモノトーンBARTフレームワークで推定できるプロビットモノトンBARTを提案することで、これらの発展をさらに進める。
関連論文リスト
- Bayesian Additive Regression Trees for functional ANOVA model [13.402140652721618]
AnoVA Bayesian Additive Regression Trees (ANOVA-BART)は、Bayesian Additive Regression Trees (BART)の新規拡張である。
提案したANOVA-BARTは、解釈可能性を高め、BARTの理論的保証を保ち、拡張し、優れた予測性能を実現する。
これらの結果は,ANOVA-BARTが予測精度,解釈可能性,理論的整合性のバランスをとることで,BARTに代わる魅力的な代替手段を提供することを示唆している。
論文 参考訳(メタデータ) (2025-09-03T13:50:45Z) - On the Gaussian process limit of Bayesian Additive Regression Trees [0.0]
無限木の極限において、BARTはガウス過程(GP)回帰と同値となる。
本研究は,BARTとGPレグレッションの理解と開発を行う新しい方法を開く。
GPとしてのBARTの実装はPythonパッケージ lsqfitgpで利用可能である。
論文 参考訳(メタデータ) (2024-10-26T23:18:33Z) - ASBART:Accelerated Soft Bayes Additive Regression Trees [8.476756500467689]
ソフトBARTは既存のベイジアン・サマー・オブ・ツリー(英語版)モデルにおいて実用的にもヒート的にも改善する。
BARTと比較すると、デフォルト設定で計算を完了するのに約20回以上使用される。
我々は,アクセラレーションソフトBART(ASBART)と呼ばれるBARTの変種を提案した。
論文 参考訳(メタデータ) (2023-10-21T11:27:42Z) - Contextual Combinatorial Bandits with Probabilistically Triggered Arms [55.9237004478033]
確率的に誘発される腕(C$2$MAB-T)を様々な滑らかさ条件下で検討した。
トリガー変調 (TPM) 条件の下では、C$2$-UC-Tアルゴリズムを考案し、後悔すべき$tildeO(dsqrtT)$を導出する。
論文 参考訳(メタデータ) (2023-03-30T02:51:00Z) - SoftBart: Soft Bayesian Additive Regression Trees [2.969705152497174]
本稿では,LineroとYangのSoft BARTアルゴリズムに適合するSoftBartパッケージを提案する。
このパッケージの主な目標は、より大きなモデルにBARTを組み込むことである。
標準的な予測タスクにこのパッケージを使う方法と、より大きなモデルにBARTモデルを組み込む方法の両方を示します。
論文 参考訳(メタデータ) (2022-10-28T19:25:45Z) - Why Should I Trust You, Bellman? The Bellman Error is a Poor Replacement
for Value Error [83.10489974736404]
本研究では,ベルマン方程式を値予測精度の代用目的として用いることを検討した。
ベルマン誤差は値関数の精度の指標として不十分であることがわかった。
論文 参考訳(メタデータ) (2022-01-28T21:03:59Z) - Bayesian Bellman Operators [55.959376449737405]
ベイズ強化学習(RL)の新しい視点について紹介する。
我々のフレームワークは、ブートストラップが導入されたとき、モデルなしアプローチは実際には値関数ではなくベルマン作用素よりも後部を推測する、という洞察に動機づけられている。
論文 参考訳(メタデータ) (2021-06-09T12:20:46Z) - Double Forward Propagation for Memorized Batch Normalization [68.34268180871416]
バッチ正規化(BN)は、ディープニューラルネットワーク(DNN)の設計における標準コンポーネントである。
より正確でロバストな統計値を得るために,複数の最近のバッチを考慮に入れた記憶型バッチ正規化(MBN)を提案する。
関連する手法と比較して、提案したMBNはトレーニングと推論の両方において一貫した振る舞いを示す。
論文 参考訳(メタデータ) (2020-10-10T08:48:41Z) - Learning Near Optimal Policies with Low Inherent Bellman Error [115.16037976819331]
エピソード強化学習における近似線形作用値関数を用いた探索問題について検討する。
我々は,検討した設定に対して最適な統計率を達成するアルゴリズムを用いて,Emphbatch仮定のみを用いて探索を行うことが可能であることを示す。
論文 参考訳(メタデータ) (2020-02-29T02:02:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。