論文の概要: Tree-Values: selective inference for regression trees
- arxiv url: http://arxiv.org/abs/2106.07816v1
- Date: Tue, 15 Jun 2021 00:25:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 15:04:57.001619
- Title: Tree-Values: selective inference for regression trees
- Title(参考訳): tree-values:回帰木に対する選択的推論
- Authors: Anna C. Neufeld, Lucy L. Gao, Daniela M. Witten
- Abstract要約: データから推定された木が標準的な保証を達成できないという事実を説明できない推論に対する単純なアプローチ。
適応したCARTツリー上での推論を行うための選択推論フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider conducting inference on the output of the Classification and
Regression Tree (CART) [Breiman et al., 1984] algorithm. A naive approach to
inference that does not account for the fact that the tree was estimated from
the data will not achieve standard guarantees, such as Type 1 error rate
control and nominal coverage. Thus, we propose a selective inference framework
for conducting inference on a fitted CART tree. In a nutshell, we condition on
the fact that the tree was estimated from the data. We propose a test for the
difference in the mean response between a pair of terminal nodes that controls
the selective Type 1 error rate, and a confidence interval for the mean
response within a single terminal node that attains the nominal selective
coverage. Efficient algorithms for computing the necessary conditioning sets
are provided. We apply these methods in simulation and to a dataset involving
the association between portion control interventions and caloric intake.
- Abstract(参考訳): 我々は分類・回帰木(CART) [Breiman et al., 1984] アルゴリズムの出力を推定する。
推論に対するナイーブなアプローチは、データから推定されたツリーがタイプ1のエラー率制御や名目カバレッジといった標準保証を達成できないという事実を考慮しない。
そこで本研究では,適応したCARTツリー上での推論を行うための選択推論フレームワークを提案する。
一言で言えば、木がデータから推定されたという事実を条件とします。
本稿では,選択型1エラー率を制御する一対の端末ノード間の平均応答の差と,名目選択カバレッジを達成する単一端末ノード内の平均応答に対する信頼区間とを比較検討する。
必要な条件セットを効率的に計算するアルゴリズムが提供される。
これらの手法をシミュレーションおよび部分制御介入とカロリー摂取との関連性に関するデータセットに適用する。
関連論文リスト
- Decision Trees for Interpretable Clusters in Mixture Models and Deep Representations [5.65604054654671]
混合モデルに対する説明可能性-雑音比の概念を導入する。
本研究では,混合モデルを入力として,データに依存しない時間に適切な木を構築するアルゴリズムを提案する。
結果の決定ツリーの誤り率について,上と下の境界を証明した。
論文 参考訳(メタデータ) (2024-11-03T14:00:20Z) - Learning Deep Tree-based Retriever for Efficient Recommendation: Theory and Method [76.31185707649227]
効率的なレコメンデーションのために,Deep Tree-based Retriever (DTR)を提案する。
DTRは、トレーニングタスクを、同じレベルでツリーノード上のソフトマックスベースのマルチクラス分類としてフレーム化している。
非リーフノードのラベル付けによって引き起こされる準最適性を緩和するため、損失関数の補正法を提案する。
論文 参考訳(メタデータ) (2024-08-21T05:09:53Z) - Reinforcement Learning for Node Selection in Branch-and-Bound [52.2648997215667]
現在の最先端セレクタは手作りのアンサンブルを使用して、ナイーブなサブノードセレクタと、個々のノードデータに依存する学習ノードセレクタを自動的に切り替える。
孤立ノードではなく木の状態全体を考慮しながら強化学習(RL)を用いる新しいシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2023-09-29T19:55:56Z) - Semi-DETR: Semi-Supervised Object Detection with Detection Transformers [105.45018934087076]
半教師付き物体検出(SSOD)におけるDETRに基づくフレームワークの解析
本報告では,第1次変圧器を用いたエンド・ツー・エンド半教師対象検出器であるSemi-DETRについて述べる。
我々の手法は、最先端の手法をクリアマージンで上回る。
論文 参考訳(メタデータ) (2023-07-16T16:32:14Z) - Prediction Algorithms Achieving Bayesian Decision Theoretical Optimality
Based on Decision Trees as Data Observation Processes [1.2774526936067927]
本稿では,データの背後にあるデータ観測過程を表現するために木を用いる。
我々は、過度な適合に対して頑健な統計的に最適な予測を導出する。
これをマルコフ連鎖モンテカルロ法により解き、ステップサイズは木の後方分布に応じて適応的に調整される。
論文 参考訳(メタデータ) (2023-06-12T12:14:57Z) - Optimal randomized classification trees [0.0]
分類と回帰木(英: Classification and Regression Trees、CART)は、現代の統計学と機械学習における既成の技術である。
CARTはgreedyプロシージャによって構築され、分割予測変数と関連するしきい値を逐次決定する。
この強欲なアプローチは、木を非常に高速に木に分類するが、その性質上、それらの分類精度は他の最先端の手順と競合しないかもしれない。
論文 参考訳(メタデータ) (2021-10-19T11:41:12Z) - Visualizing hierarchies in scRNA-seq data using a density tree-biased
autoencoder [50.591267188664666]
本研究では,高次元scRNA-seqデータから意味のある木構造を同定する手法を提案する。
次に、低次元空間におけるデータのツリー構造を強調する木バイアスオートエンコーダDTAEを紹介する。
論文 参考訳(メタデータ) (2021-02-11T08:48:48Z) - Precision-Recall Curve (PRC) Classification Trees [5.503321733964237]
そこで本稿では,AUPRC (Precision-recall curve) に基づく木に基づく新しいアルゴリズムを提案する。
我々のアルゴリズムは「精度・リコール曲線分類木(Precision-Recall Curve classification tree)」と名付けられ、単に「PRC分類木(PRC classification tree)」と呼ばれる。
論文 参考訳(メタデータ) (2020-11-15T22:31:06Z) - Convex Polytope Trees [57.56078843831244]
コンベックスポリトープ木(CPT)は、決定境界の解釈可能な一般化によって決定木の系統を拡張するために提案される。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
論文 参考訳(メタデータ) (2020-10-21T19:38:57Z) - Rectified Decision Trees: Exploring the Landscape of Interpretable and
Effective Machine Learning [66.01622034708319]
我々は,reDT(rerectified decision tree)と呼ばれる知識蒸留に基づく決定木拡張を提案する。
我々は,ソフトラベルを用いたトレーニングを可能にする標準決定木の分割基準と終了条件を拡張した。
次に,教師モデルから抽出したソフトラベルに基づいて,新しいジャックニフェ法を用いてReDTを訓練する。
論文 参考訳(メタデータ) (2020-08-21T10:45:25Z) - Explainable outlier detection through decision tree conditioning [0.0]
GritBotソフトウェアは、教師付き決定木を変数で分割して評価し、追跡することで機能する。
観察において変数の与えられた値が外れやすいとみなすことができる理由について、人間可読な説明を作成できる。
論文 参考訳(メタデータ) (2020-01-02T21:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。