論文の概要: Mixture of Decision Trees for Interpretable Machine Learning
- arxiv url: http://arxiv.org/abs/2211.14617v1
- Date: Sat, 26 Nov 2022 17:09:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 19:25:45.128320
- Title: Mixture of Decision Trees for Interpretable Machine Learning
- Title(参考訳): 解釈可能な機械学習のための混合決定木
- Authors: Simeon Br\"uggenj\"urgen, Nina Schaaf, Pascal Kerschke, Marco F. Huber
- Abstract要約: この研究は、Mixture of Decision Trees (MoDT)と呼ばれる新しい解釈可能な機械学習手法を導入する。
MoDTは、それぞれの決定を理解可能で、人間に追跡可能とすることで、解釈可能性を維持しながらパフォーマンスを向上させる方法とみなすことができる。
- 参考スコア(独自算出の注目度): 4.180840853105103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work introduces a novel interpretable machine learning method called
Mixture of Decision Trees (MoDT). It constitutes a special case of the Mixture
of Experts ensemble architecture, which utilizes a linear model as gating
function and decision trees as experts. Our proposed method is ideally suited
for problems that cannot be satisfactorily learned by a single decision tree,
but which can alternatively be divided into subproblems. Each subproblem can
then be learned well from a single decision tree. Therefore, MoDT can be
considered as a method that improves performance while maintaining
interpretability by making each of its decisions understandable and traceable
to humans.
Our work is accompanied by a Python implementation, which uses an
interpretable gating function, a fast learning algorithm, and a direct
interface to fine-tuned interpretable visualization methods. The experiments
confirm that the implementation works and, more importantly, show the
superiority of our approach compared to single decision trees and random
forests of similar complexity.
- Abstract(参考訳): この研究は、Mixture of Decision Trees (MoDT)と呼ばれる新しい解釈可能な機械学習手法を導入する。
これは、線形モデルをゲーティング関数として、決定木をエキスパートとして利用するMixture of Expertsアンサンブルアーキテクチャの特別なケースを構成する。
提案手法は,1つの決定木で十分学べない問題に最適であるが,代わりにサブプロブレムに分割することができる。
各サブプロブレムは、単一の決定木からうまく学習することができる。
したがって、MoDTは、各決定を人間に理解し、追跡可能にすることによって、解釈可能性を維持しつつ、性能を向上させる方法とみなすことができる。
我々の研究には,解釈可能なゲーティング関数,高速学習アルゴリズム,微調整可能な可視化手法のための直接インターフェースを用いたPython実装が伴っている。
実験により,本手法の有効性を確認し,さらに重要な点として,単一決定木や類似する複雑度を有するランダム林と比較して,我々のアプローチが優れていることを示す。
関連論文リスト
- Greedy Algorithm for Inference of Decision Trees from Decision Rule
Systems [0.0]
決定木と決定ルールシステムは属性、知識表現ツール、アルゴリズムとして重要な役割を果たす。
本稿では,逆変換問題について考察する。
本研究は,決定木全体を構築する代わりに,与えられた属性に対する決定木の操作をシミュレートする欲求時間アルゴリズムに焦点を当てる。
論文 参考訳(メタデータ) (2024-01-08T09:28:55Z) - TreeDQN: Learning to minimize Branch-and-Bound tree [78.52895577861327]
Branch-and-Boundは、Mixed Linear Programsという形で最適化タスクを解決するための便利なアプローチである。
解法の効率は、分割する変数を選択するのに使用される分岐に依存する。
分岐を効率的に学習できる強化学習法を提案する。
論文 参考訳(メタデータ) (2023-06-09T14:01:26Z) - Construction of Decision Trees and Acyclic Decision Graphs from Decision
Rule Systems [0.0]
本稿では,決定木を構成する複雑さと決定木を表す非周期決定グラフについて考察する。
決定木全体を構築しない可能性について論じるが、与えられた入力に対して、この木で計算経路を記述する。
論文 参考訳(メタデータ) (2023-05-02T18:40:48Z) - Decision Machines: Interpreting Decision Tree as a Model Combination
Method [0.0]
我々は二分決定木をコンパクトに表現する。
この定式化を連続関数で近似する。
そこで本研究では,いくつかの学習手法を統合するための選択予測手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T12:23:24Z) - Towards Improved and Interpretable Deep Metric Learning via Attentive
Grouping [103.71992720794421]
グループ化は、様々な特徴の計算にディープ・メトリック・ラーニングでよく用いられてきた。
本稿では,任意のメトリクス学習フレームワークと柔軟に統合可能な,改良された解釈可能なグループ化手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T19:08:24Z) - Rectified Decision Trees: Exploring the Landscape of Interpretable and
Effective Machine Learning [66.01622034708319]
我々は,reDT(rerectified decision tree)と呼ばれる知識蒸留に基づく決定木拡張を提案する。
我々は,ソフトラベルを用いたトレーニングを可能にする標準決定木の分割基準と終了条件を拡張した。
次に,教師モデルから抽出したソフトラベルに基づいて,新しいジャックニフェ法を用いてReDTを訓練する。
論文 参考訳(メタデータ) (2020-08-21T10:45:25Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - Learning with Differentiable Perturbed Optimizers [54.351317101356614]
本稿では,操作を微分可能で局所的に一定ではない操作に変換する手法を提案する。
提案手法は摂動に依拠し,既存の解法とともに容易に利用することができる。
本稿では,この枠組みが,構造化予測において発達した損失の族とどのように結びつくかを示し,学習課題におけるそれらの使用に関する理論的保証を与える。
論文 参考訳(メタデータ) (2020-02-20T11:11:32Z) - Parameterizing Branch-and-Bound Search Trees to Learn Branching Policies [76.83991682238666]
Branch and Bound (B&B) は、Mixed-Integer Linear Programming Problem (MILP) の解法として一般的に用いられる木探索法である。
本稿では,新しい模倣学習フレームワークを提案し,分岐を表現するための新しい入力機能とアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-12T17:43:23Z) - dtControl: Decision Tree Learning Algorithms for Controller
Representation [0.0]
決定木は証明可能な正確なコントローラを簡潔に表現するために使用することができる。
本稿では、メモリレスコントローラを決定木として表現するための簡易な合成ツールであるdtControlについて述べる。
論文 参考訳(メタデータ) (2020-02-12T17:13:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。