論文の概要: TRUST: Transparent, Robust and Ultra-Sparse Trees
- arxiv url: http://arxiv.org/abs/2506.15791v1
- Date: Wed, 18 Jun 2025 18:21:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.789549
- Title: TRUST: Transparent, Robust and Ultra-Sparse Trees
- Title(参考訳): TRUST:透明、ロバスト、超スパースツリー
- Authors: Albert Dorador,
- Abstract要約: 微妙に一貫した回帰木はその解釈可能性で人気があるが、予測精度ではランダムフォレストのようなブラックボックスモデルに遅れることが多い。
我々は,ランダムフォレストの精度と浅い決定木とスパース線形モデルの解釈可能性を組み合わせた新しい回帰木モデルであるTRUSTを紹介した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Piecewise-constant regression trees remain popular for their interpretability, yet often lag behind black-box models like Random Forest in predictive accuracy. In this work, we introduce TRUST (Transparent, Robust, and Ultra-Sparse Trees), a novel regression tree model that combines the accuracy of Random Forests with the interpretability of shallow decision trees and sparse linear models. TRUST further enhances transparency by leveraging Large Language Models to generate tailored, user-friendly explanations. Extensive validation on synthetic and real-world benchmark datasets demonstrates that TRUST consistently outperforms other interpretable models -- including CART, Lasso, and Node Harvest -- in predictive accuracy, while matching the accuracy of Random Forest and offering substantial gains in both accuracy and interpretability over M5', a well-established model that is conceptually related.
- Abstract(参考訳): 微妙に一貫した回帰木はその解釈可能性で人気があるが、予測精度ではランダムフォレストのようなブラックボックスモデルに遅れることが多い。
本研究では, ランダム森林の精度と浅い決定木とスパース線形モデルの解釈可能性を組み合わせた新しい回帰木モデルであるTRUST(Transparent, Robust, Ultra-Sparse Trees)を紹介する。
TRUSTは、大規模言語モデルを活用して、カスタマイズされたユーザフレンドリな説明を生成することにより、透明性をさらに向上する。
合成および実世界のベンチマークデータセットに対する大規模な検証は、TRUSTがCART、Lasso、Node Harvestなど他の解釈可能なモデルを予測精度で一貫して上回っていることを示している。
関連論文リスト
- Prediction Models That Learn to Avoid Missing Values [7.302408149992981]
失敗回避機械学習(英: Missingness-avoiding、MA)は、テスト時に欠落する機能の価値をほとんど必要としないモデルをトレーニングするためのフレームワークである。
我々は,決定木,木アンサンブル,疎線形モデルに適したMA学習アルゴリズムを作成する。
我々のフレームワークは、テスト時に欠落した値の予測において、解釈可能性を維持する強力なツールを提供する。
論文 参考訳(メタデータ) (2025-05-06T10:16:35Z) - Robust Fine-tuning of Zero-shot Models via Variance Reduction [56.360865951192324]
微調整ゼロショットモデルの場合、このデシドラトゥムは細調整モデルで、分布内(ID)と分布外(OOD)の両方で優れる。
トレードオフを伴わずに最適なIDとOODの精度を同時に達成できるサンプルワイズアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2024-11-11T13:13:39Z) - Predicting generalization performance with correctness discriminators [56.948321040125734]
未確認データに対して,金のラベルを必要とせず,精度の上下境界を確立する新しいモデルを提案する。
予測された上境界と下限の間に金の精度が確実に成立する様々なタグ付け、構文解析、意味解析タスクを示す。
論文 参考訳(メタデータ) (2023-11-15T22:43:42Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of Open Information Extraction [49.15931834209624]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - VisFIS: Visual Feature Importance Supervision with
Right-for-the-Right-Reason Objectives [84.48039784446166]
モデルFI監督は、VQAモデルの精度と、Right-to-the-Right-Reasonメトリクスの性能を有意義に向上させることができることを示す。
我々の最高のパフォーマンス手法であるVisual Feature Importance Supervision (VisFIS)は、ベンチマークVQAデータセットで強いベースラインを上回ります。
説明が妥当で忠実な場合には予測がより正確になる。
論文 参考訳(メタデータ) (2022-06-22T17:02:01Z) - On Uncertainty Estimation by Tree-based Surrogate Models in Sequential
Model-based Optimization [13.52611859628841]
予測不確実性推定の観点から,ランダム化木の様々なアンサンブルを再検討し,その挙動について検討する。
BwO林と呼ばれる無作為な樹木のアンサンブルを構築するための新しい手法を提案する。
実験により,既存の樹木モデルに対するBwO林の有効性と性能について様々な状況で検証した。
論文 参考訳(メタデータ) (2022-02-22T04:50:37Z) - An Interpretable Probabilistic Model for Short-Term Solar Power
Forecasting Using Natural Gradient Boosting [0.0]
本稿では,高精度で信頼性が高く,鋭い予測を生成できる2段階確率予測フレームワークを提案する。
このフレームワークは、ポイント予測と予測間隔(PI)の両方について完全な透明性を提供する。
提案フレームワークの性能と適用性を強調するため,南ドイツにある2つのPV公園の実際のデータを用いている。
論文 参考訳(メタデータ) (2021-08-05T12:59:38Z) - A Numerical Transform of Random Forest Regressors corrects
Systematically-Biased Predictions [0.0]
ランダムな森林モデルからの予測には体系的なバイアスがある。
このバイアスは単純な合成データセットで再カプセル化される。
トレーニングデータを使用して、それを完全に修正する数値変換を定義します。
論文 参考訳(メタデータ) (2020-03-16T21:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。