論文の概要: Global Evaluation for Decision Tree Learning
- arxiv url: http://arxiv.org/abs/2208.04828v1
- Date: Tue, 9 Aug 2022 15:12:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 12:16:03.462459
- Title: Global Evaluation for Decision Tree Learning
- Title(参考訳): 意思決定木学習のグローバル評価
- Authors: Fabian Spaeh, Sven Kosub
- Abstract要約: 我々はID3アルゴリズムを拡張し、ツリーのグローバル距離に基づいて修正を行う。
この考え方を原版と比較して評価し、発生した問題を論じるとともに、世界的アプローチの強みについても論じる。
- 参考スコア(独自算出の注目度): 2.3605348648054463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We transfer distances on clusterings to the building process of decision
trees, and as a consequence extend the classical ID3 algorithm to perform
modifications based on the global distance of the tree to the ground
truth--instead of considering single leaves. Next, we evaluate this idea in
comparison with the original version and discuss occurring problems, but also
strengths of the global approach. On this basis, we finish by identifying other
scenarios where global evaluations are worthwhile.
- Abstract(参考訳): 我々は,クラスタリング上の距離を決定木の構築プロセスに転送し,その結果,従来のid3アルゴリズムを拡張して,単一葉を考慮せず,木全体の距離から基底真理までの変更を行う。
次に,この考え方を原版と比較して評価し,問題点について議論すると同時に,グローバルアプローチの強みについても論じる。
このベースで、グローバルな評価が価値のある他のシナリオを特定します。
関連論文リスト
- Learning accurate and interpretable decision trees [27.203303726977616]
我々は、同じドメインから繰り返しデータにアクセスして決定木学習アルゴリズムを設計するためのアプローチを開発する。
本研究では,ベイズ決定木学習における事前パラメータのチューニングの複雑さについて検討し,その結果を決定木回帰に拡張する。
また、学習した決定木の解釈可能性について検討し、決定木を用いた説明可能性と精度のトレードオフを最適化するためのデータ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2024-05-24T20:10:10Z) - An Interpretable Client Decision Tree Aggregation process for Federated Learning [7.8973037023478785]
本稿では,フェデレート学習シナリオを対象とした解釈可能なクライアント決定木集約プロセスを提案する。
このモデルは、決定ツリーの複数の決定パスの集約に基づいており、ID3やCARTなど、さまざまな決定ツリータイプで使用することができる。
4つのデータセットで実験を行い、分析により、モデルで構築された木が局所モデルを改善し、最先端のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-04-03T06:53:56Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - Distribution and volume based scoring for Isolation Forests [0.0]
我々は,異常・異常検出のための孤立林法に2つの貢献をしている。
1つ目は、ランダムツリー推定器間でスコアを集約するために使用されるスコア関数を情報理論的に動機づけた一般化である。
二つ目は、個別の樹木推定器のレベルでの代替スコアリング関数であり、孤立林の深度に基づくスコアリングを、孤立木の葉ノードに関連付けられたハイパーボリュームに基づくものに置き換える。
論文 参考訳(メタデータ) (2023-09-20T16:27:10Z) - Relational Proxies: Emergent Relationships as Fine-Grained
Discriminators [52.17542855760418]
本稿では,オブジェクトのグローバル部分とローカル部分の間の情報を利用してラベルを符号化する手法を提案する。
我々は、理論的な結果に基づいてプロキシを設計し、7つの挑戦的なきめ細かいベンチマークデータセットに基づいて評価する。
また、この理論を実験的に検証し、複数のベンチマークで一貫した結果を得る。
論文 参考訳(メタデータ) (2022-10-05T11:08:04Z) - Data-driven advice for interpreting local and global model predictions
in bioinformatics problems [17.685881417954782]
条件付き特徴コントリビューション(CFC)は、予測のテキストローカルでケースバイケースの説明を提供する。
両手法で計算した説明を, 公開されている164の分類問題に対して比較した。
ランダム林では,地域とグローバルのSHAP値とCFCスコアの相関関係が極めて高い。
論文 参考訳(メタデータ) (2021-08-13T12:41:39Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Convex Polytope Trees [57.56078843831244]
コンベックスポリトープ木(CPT)は、決定境界の解釈可能な一般化によって決定木の系統を拡張するために提案される。
木構造が与えられたとき,木パラメータに対するCPTおよび拡張性のあるエンドツーエンドトレーニングアルゴリズムを効率的に構築する。
論文 参考訳(メタデータ) (2020-10-21T19:38:57Z) - JSRT: James-Stein Regression Tree [55.2059664267247]
回帰木(RT)は機械学習やデータマイニングのコミュニティで広く使われている。
実際、RTの性能は、木構築/予測段階における個々のノードからのサンプルの局所的な平均に大きく依存している。
我々は,異なるノードからのグローバル情報を考慮した新しい回帰木であるJames-Stein Regression Tree (JSRT)を提案する。
論文 参考訳(メタデータ) (2020-10-18T16:28:49Z) - Parameterizing Branch-and-Bound Search Trees to Learn Branching Policies [76.83991682238666]
Branch and Bound (B&B) は、Mixed-Integer Linear Programming Problem (MILP) の解法として一般的に用いられる木探索法である。
本稿では,新しい模倣学習フレームワークを提案し,分岐を表現するための新しい入力機能とアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-12T17:43:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。