論文の概要: Decision Machines: Congruent Decision Trees
- arxiv url: http://arxiv.org/abs/2101.11347v7
- Date: Sat, 16 Nov 2024 05:22:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:30:25.909302
- Title: Decision Machines: Congruent Decision Trees
- Title(参考訳): 決定機械:合同決定木
- Authors: Jinxiong Zhang,
- Abstract要約: 本稿では,ブール試験を二進ベクトル空間に埋め込み,木構造を行列として表現する決定機械を提案する。
我々は,決定木と注意機構の一致を探求し,決定木を最適化し,予測力を増強するための新たな道を開く。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The decision tree recursively partitions the input space into regions and derives axis-aligned decision boundaries from data. Despite its simplicity and interpretability, decision trees lack parameterized representation, which makes it prone to overfitting and difficult to find the optimal structure. We propose Decision Machines, which embed Boolean tests into a binary vector space and represent the tree structure as a matrices, enabling an interleaved traversal of decision trees through matrix computation. Furthermore, we explore the congruence of decision trees and attention mechanisms, opening new avenues for optimizing decision trees and potentially enhancing their predictive power.
- Abstract(参考訳): 決定木は入力空間を領域に再帰的に分割し、データから軸方向の決定境界を導出する。
その単純さと解釈性にもかかわらず、決定木にはパラメータ化表現がないため、過度に適合し、最適な構造を見つけるのが難しくなる。
本稿では,2進ベクトル空間にブール試験を埋め込み,木構造を行列として表現する決定機械を提案する。
さらに,決定木と注意機構の整合性を探求し,決定木を最適化し,予測力を増強する新たな道を開く。
関連論文リスト
- FoLDTree: A ULDA-Based Decision Tree Framework for Efficient Oblique Splits and Feature Selection [6.087464679182875]
LDATreeとFoldTreeは、Uncorrelated Linear Discriminant Analysis (ULDA)とForward ULDAを決定木構造に統合する。
LDATree と FoLDTree は軸直交およびその他の斜め決定木法より一貫して優れている。
論文 参考訳(メタデータ) (2024-10-30T16:03:51Z) - Learning accurate and interpretable decision trees [27.203303726977616]
我々は、同じドメインから繰り返しデータにアクセスして決定木学習アルゴリズムを設計するためのアプローチを開発する。
本研究では,ベイズ決定木学習における事前パラメータのチューニングの複雑さについて検討し,その結果を決定木回帰に拡張する。
また、学習した決定木の解釈可能性について検討し、決定木を用いた説明可能性と精度のトレードオフを最適化するためのデータ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2024-05-24T20:10:10Z) - Divide, Conquer, Combine Bayesian Decision Tree Sampling [1.1879716317856945]
決定木は、その柔軟性と解釈可能性のために予測モデルとして一般的に使用される。
本稿では,ベイズ推定手法を用いて決定木予測の不確かさを定量化する。
論文 参考訳(メタデータ) (2024-03-26T23:14:15Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - TreeDQN: Learning to minimize Branch-and-Bound tree [78.52895577861327]
Branch-and-Boundは、Mixed Linear Programsという形で最適化タスクを解決するための便利なアプローチである。
解法の効率は、分割する変数を選択するのに使用される分岐に依存する。
分岐を効率的に学習できる強化学習法を提案する。
論文 参考訳(メタデータ) (2023-06-09T14:01:26Z) - Construction of Decision Trees and Acyclic Decision Graphs from Decision
Rule Systems [0.0]
本稿では,決定木を構成する複雑さと決定木を表す非周期決定グラフについて考察する。
決定木全体を構築しない可能性について論じるが、与えられた入力に対して、この木で計算経路を記述する。
論文 参考訳(メタデータ) (2023-05-02T18:40:48Z) - Contextual Decision Trees [62.997667081978825]
学習アンサンブルの1つの浅い木を特徴量ベースで選択するための,マルチアームのコンテキスト付きバンドレコメンデーションフレームワークを提案する。
トレーニングされたシステムはランダムフォレスト上で動作し、最終的な出力を提供するためのベース予測器を動的に識別する。
論文 参考訳(メタデータ) (2022-07-13T17:05:08Z) - Convex Polytope Trees [57.56078843831244]
コンベックスポリトープ木(CPT)は、決定境界の解釈可能な一般化によって決定木の系統を拡張するために提案される。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
論文 参考訳(メタデータ) (2020-10-21T19:38:57Z) - Rectified Decision Trees: Exploring the Landscape of Interpretable and
Effective Machine Learning [66.01622034708319]
我々は,reDT(rerectified decision tree)と呼ばれる知識蒸留に基づく決定木拡張を提案する。
我々は,ソフトラベルを用いたトレーニングを可能にする標準決定木の分割基準と終了条件を拡張した。
次に,教師モデルから抽出したソフトラベルに基づいて,新しいジャックニフェ法を用いてReDTを訓練する。
論文 参考訳(メタデータ) (2020-08-21T10:45:25Z) - Generalized and Scalable Optimal Sparse Decision Trees [56.35541305670828]
様々な目的に対して最適な決定木を生成する手法を提案する。
また,連続変数が存在する場合に最適な結果が得られるスケーラブルなアルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-06-15T19:00:11Z) - dtControl: Decision Tree Learning Algorithms for Controller
Representation [0.0]
決定木は証明可能な正確なコントローラを簡潔に表現するために使用することができる。
本稿では、メモリレスコントローラを決定木として表現するための簡易な合成ツールであるdtControlについて述べる。
論文 参考訳(メタデータ) (2020-02-12T17:13:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。