論文の概要: Bayesian Additive Regression Trees with Model Trees
- arxiv url: http://arxiv.org/abs/2006.07493v5
- Date: Wed, 10 Mar 2021 16:20:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 03:06:58.038680
- Title: Bayesian Additive Regression Trees with Model Trees
- Title(参考訳): モデル木を伴うベイズ加法回帰木
- Authors: Estev\~ao B. Prado, Rafael A. Moral and Andrew C. Parnell
- Abstract要約: モデルツリーBART(MOTR-BART)と呼ばれるBARTの拡張を導入する。
MOTR-BARTは、分数定数ではなく、ノードレベルでの分数線形関数を考える。
提案手法では, 局所的な線形性がより効率的に取得され, BARTと同等以上の性能を達成するために, 木を少なくする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian Additive Regression Trees (BART) is a tree-based machine learning
method that has been successfully applied to regression and classification
problems. BART assumes regularisation priors on a set of trees that work as
weak learners and is very flexible for predicting in the presence of
non-linearity and high-order interactions. In this paper, we introduce an
extension of BART, called Model Trees BART (MOTR-BART), that considers
piecewise linear functions at node levels instead of piecewise constants. In
MOTR-BART, rather than having a unique value at node level for the prediction,
a linear predictor is estimated considering the covariates that have been used
as the split variables in the corresponding tree. In our approach, local
linearities are captured more efficiently and fewer trees are required to
achieve equal or better performance than BART. Via simulation studies and real
data applications, we compare MOTR-BART to its main competitors. R code for
MOTR-BART implementation is available at https://github.com/ebprado/MOTR-BART.
- Abstract(参考訳): Bayesian Additive Regression Trees (BART)は木に基づく機械学習手法であり、回帰問題や分類問題にうまく適用されている。
BARTは、弱い学習者として機能し、非線形および高次相互作用の存在を予測するために非常に柔軟である一連の木に規則化の優先順位を仮定する。
本稿では,モデルツリーBART(MOTR-BART)と呼ばれるBARTの拡張について紹介する。
MOTR-BARTでは、予測のためのノードレベルでのユニークな値ではなく、対応する木の分割変数として使用される共変量を考慮した線形予測器が推定される。
提案手法では, 局所的線形性はBARTよりも効率的に取得でき, BARTと同等以上の性能を達成するためには, 木を少なくする必要がある。
シミュレーション研究と実データ応用により,MOTR-BARTを主な競合相手と比較する。
MOTR-BART実装のRコードはhttps://github.com/ebprado/MOTR-BARTで公開されている。
関連論文リスト
- Neural Graph Pattern Machine [50.78679002846741]
本稿では,グラフパターンから直接学習するためのフレームワークであるNeural Graph Pattern Machine (GPM)を提案する。
GPMは、下流タスクにおいて最も関連性の高いものを特定しながら、下位構造を効率的に抽出し、エンコードする。
論文 参考訳(メタデータ) (2025-01-30T20:37:47Z) - An Automatic Graph Construction Framework based on Large Language Models for Recommendation [49.51799417575638]
本稿では,大規模言語モデルに基づく自動グラフ構築フレームワークであるAutoGraphを紹介する。
LLMはユーザ好みとアイテムの知識を推論し、セマンティックベクターとして符号化する。
潜在因子は、ユーザ/イテムノードをリンクする余分なノードとして組み込まれ、結果として、深いグローバルビューセマンティクスを持つグラフとなる。
論文 参考訳(メタデータ) (2024-12-24T07:51:29Z) - SPaR: Self-Play with Tree-Search Refinement to Improve Instruction-Following in Large Language Models [88.29990536278167]
SPaRは、木探索の自己制限を統合したセルフプレイフレームワークで、気を散らさずに有効かつ同等の選好ペアを得る。
実験により,SPaRで誘導された3回の反復で訓練されたLLaMA3-8Bモデルが,一般機能を失うことなくIFEvalベンチマークでGPT-4-Turboを上回った。
論文 参考訳(メタデータ) (2024-12-16T09:47:43Z) - Oblique Bayesian additive regression trees [0.5356944479760104]
BART(Bayesian Additive Regression Tree)の現在の実装は軸整列決定規則に基づいている。
我々は、データ適応型決定ルールを利用するBARTの斜めバージョンを開発する。
斜めのBARTと軸方向のBARTや他の木のアンサンブル手法を体系的に比較し、斜めのBARTが -- 時として -- より優れていたことを発見した。
論文 参考訳(メタデータ) (2024-11-13T18:29:58Z) - On the Gaussian process limit of Bayesian Additive Regression Trees [0.0]
ベイズ付加回帰木(Bayesian Additive Regression Trees, BART)は、ベイズ回帰法の一種。
無限木の極限において、それはガウス過程(GP)回帰と同値となる。
本研究は,BARTとGPレグレッションの理解と開発を行う新しい方法を開く。
論文 参考訳(メタデータ) (2024-10-26T23:18:33Z) - ASBART:Accelerated Soft Bayes Additive Regression Trees [8.476756500467689]
ソフトBARTは既存のベイジアン・サマー・オブ・ツリー(英語版)モデルにおいて実用的にもヒート的にも改善する。
BARTと比較すると、デフォルト設定で計算を完了するのに約20回以上使用される。
我々は,アクセラレーションソフトBART(ASBART)と呼ばれるBARTの変種を提案した。
論文 参考訳(メタデータ) (2023-10-21T11:27:42Z) - flexBART: Flexible Bayesian regression trees with categorical predictors [0.6577148087211809]
ベイズ加法回帰木 (BART) のほとんどの実装は、カテゴリ予測を符号化し、それぞれを複数のバイナリインジケータに置き換えている。
決定ツリーノードの両ブランチに複数のレベルを割り当てるレグレッションツリーでBARTを再実装します。
flexBARTパッケージで利用可能な再実装は、しばしばサンプル外の予測性能を改善し、より大きなデータセットにスケールする。
論文 参考訳(メタデータ) (2022-11-08T18:52:37Z) - Lookback for Learning to Branch [77.32867454769936]
Bipartite Graph Neural Networks (GNN) は、ディープラーニングに基づくMixed-Integer Linear Program (MILP) の重要コンポーネントであることが示されている。
近年の研究では、分岐とバウンド(B&B)の解法における分岐(可変選択)を置き換える上で、そのようなGNNの有効性が実証されている。
論文 参考訳(メタデータ) (2022-06-30T02:33:32Z) - GP-BART: a novel Bayesian additive regression trees approach using
Gaussian processes [1.03590082373586]
GP-BARTモデル(GP-BART model)は、すべての木間の各終端ノードの予測にGP先行を仮定することで制限に対処するBARTの拡張である。
モデルの有効性は、シミュレーションおよび実世界のデータへの応用を通じて実証され、様々なシナリオにおける従来のモデリング手法のパフォーマンスを上回る。
論文 参考訳(メタデータ) (2022-04-05T11:18:44Z) - Momentum Pseudo-Labeling for Semi-Supervised Speech Recognition [55.362258027878966]
本稿では,半教師付き音声認識のための簡易かつ効果的な手法として,モーメント擬似ラベル(MPL)を提案する。
MPLは、平均的な教師メソッドにインスパイアされて、相互に相互作用し、学習するオンラインとオフラインの2つのモデルで構成されている。
実験の結果,MPLはベースモデルよりも効果的に改善され,様々な半教師付きシナリオに拡張可能であることが示された。
論文 参考訳(メタデータ) (2021-06-16T16:24:55Z) - Improved Branch and Bound for Neural Network Verification via Lagrangian
Decomposition [161.09660864941603]
ニューラルネットワークの入出力特性を公式に証明するためのブランチとバウンド(BaB)アルゴリズムのスケーラビリティを改善します。
活性化に基づく新しい分岐戦略とBaBフレームワークであるブランチとデュアルネットワーク境界(BaDNB)を提案する。
BaDNBは、従来の完全検証システムを大きなマージンで上回り、対数特性で平均検証時間を最大50倍に削減した。
論文 参考訳(メタデータ) (2021-04-14T09:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。