論文の概要: dtControl: Decision Tree Learning Algorithms for Controller
Representation
- arxiv url: http://arxiv.org/abs/2002.04991v1
- Date: Wed, 12 Feb 2020 17:13:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 18:51:35.484127
- Title: dtControl: Decision Tree Learning Algorithms for Controller
Representation
- Title(参考訳): dtControl:コントローラ表現のための決定木学習アルゴリズム
- Authors: Pranav Ashok, Mathias Jackermeier, Pushpak Jagtap, Jan
K\v{r}et\'insk\'y, Maximilian Weininger, Majid Zamani
- Abstract要約: 決定木は証明可能な正確なコントローラを簡潔に表現するために使用することができる。
本稿では、メモリレスコントローラを決定木として表現するための簡易な合成ツールであるdtControlについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision tree learning is a popular classification technique most commonly
used in machine learning applications. Recent work has shown that decision
trees can be used to represent provably-correct controllers concisely. Compared
to representations using lookup tables or binary decision diagrams, decision
trees are smaller and more explainable. We present dtControl, an easily
extensible tool for representing memoryless controllers as decision trees. We
give a comprehensive evaluation of various decision tree learning algorithms
applied to 10 case studies arising out of correct-by-construction controller
synthesis. These algorithms include two new techniques, one for using arbitrary
linear binary classifiers in the decision tree learning, and one novel approach
for determinizing controllers during the decision tree construction. In
particular the latter turns out to be extremely efficient, yielding decision
trees with a single-digit number of decision nodes on 5 of the case studies.
- Abstract(参考訳): 決定木学習(Decision Tree Learning)は、機械学習アプリケーションでよく使われる一般的な分類手法である。
近年の研究により、決定木は確実に正しいコントローラを簡潔に表現できることが示された。
ルックアップテーブルやバイナリ決定ダイアグラムを使った表現と比較すると、決定木は小さく説明しやすい。
dtcontrolは、メモリレスコントローラを決定木として表現するための、拡張しやすいツールである。
構成制御器合成から生じる10のケーススタディに適用した各種決定木学習アルゴリズムの包括的評価を行った。
これらのアルゴリズムには、決定木学習に任意の線形二分法を使用するための2つの新しい手法と、決定木構築中にコントローラを決定する新しいアプローチが含まれる。
特に後者は極めて効率的であることが判明し、5つのケーススタディで1桁の数の決定ノードを持つ決定木が得られる。
関連論文リスト
- Learning accurate and interpretable decision trees [27.203303726977616]
我々は、同じドメインから繰り返しデータにアクセスして決定木学習アルゴリズムを設計するためのアプローチを開発する。
本研究では,ベイズ決定木学習における事前パラメータのチューニングの複雑さについて検討し,その結果を決定木回帰に拡張する。
また、学習した決定木の解釈可能性について検討し、決定木を用いた説明可能性と精度のトレードオフを最適化するためのデータ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2024-05-24T20:10:10Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - Greedy Algorithm for Inference of Decision Trees from Decision Rule
Systems [0.0]
決定木と決定ルールシステムは属性、知識表現ツール、アルゴリズムとして重要な役割を果たす。
本稿では,逆変換問題について考察する。
本研究は,決定木全体を構築する代わりに,与えられた属性に対する決定木の操作をシミュレートする欲求時間アルゴリズムに焦点を当てる。
論文 参考訳(メタデータ) (2024-01-08T09:28:55Z) - TreeDQN: Learning to minimize Branch-and-Bound tree [78.52895577861327]
Branch-and-Boundは、Mixed Linear Programsという形で最適化タスクを解決するための便利なアプローチである。
解法の効率は、分割する変数を選択するのに使用される分岐に依存する。
分岐を効率的に学習できる強化学習法を提案する。
論文 参考訳(メタデータ) (2023-06-09T14:01:26Z) - Construction of Decision Trees and Acyclic Decision Graphs from Decision
Rule Systems [0.0]
本稿では,決定木を構成する複雑さと決定木を表す非周期決定グラフについて考察する。
決定木全体を構築しない可能性について論じるが、与えられた入力に対して、この木で計算経路を記述する。
論文 参考訳(メタデータ) (2023-05-02T18:40:48Z) - R(Det)^2: Randomized Decision Routing for Object Detection [64.48369663018376]
本稿では,決定木とディープニューラルネットワークをエンドツーエンドの学習方法で組み合わせたオブジェクト検出手法を提案する。
効率的な学習を容易にするために,ノード選択型および連想型損失を伴うランダム化決定経路を提案する。
このアプローチをオブジェクト検出のためのランダム化決定ルーティングとして、R(Det)$2$と略す。
論文 参考訳(メタデータ) (2022-04-02T07:54:58Z) - SONG: Self-Organizing Neural Graphs [10.253870280561609]
決定木は二分決定に基づいており、決定を素早くし、クラス階層を提供するため、容易に解釈できる。
決定木がよく知られた欠点の1つは、決定木が決定ノードを再利用できないことである。
本稿では、マルコフ過程に基づく一般的なパラダイムを提供する。これは、自己組織化ニューラルネットワーク(SONG)と呼ばれる特殊なタイプの決定グラフの効率的なトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-07-28T07:53:53Z) - Decision Machines: Congruent Decision Trees [0.0]
本稿では,ブール試験を二進ベクトル空間に埋め込み,木構造を行列として表現する決定機械を提案する。
我々は,決定木と注意機構の一致を探求し,決定木を最適化し,予測力を増強するための新たな道を開く。
論文 参考訳(メタデータ) (2021-01-27T12:23:24Z) - Rectified Decision Trees: Exploring the Landscape of Interpretable and
Effective Machine Learning [66.01622034708319]
我々は,reDT(rerectified decision tree)と呼ばれる知識蒸留に基づく決定木拡張を提案する。
我々は,ソフトラベルを用いたトレーニングを可能にする標準決定木の分割基準と終了条件を拡張した。
次に,教師モデルから抽出したソフトラベルに基づいて,新しいジャックニフェ法を用いてReDTを訓練する。
論文 参考訳(メタデータ) (2020-08-21T10:45:25Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - Generalized and Scalable Optimal Sparse Decision Trees [56.35541305670828]
様々な目的に対して最適な決定木を生成する手法を提案する。
また,連続変数が存在する場合に最適な結果が得られるスケーラブルなアルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-06-15T19:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。