論文の概要: SONG: Self-Organizing Neural Graphs
- arxiv url: http://arxiv.org/abs/2107.13214v1
- Date: Wed, 28 Jul 2021 07:53:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 14:08:41.773927
- Title: SONG: Self-Organizing Neural Graphs
- Title(参考訳): SONG: 自己組織化ニューラルグラフ
- Authors: {\L}ukasz Struski, Tomasz Danel, Marek \'Smieja, Jacek Tabor, Bartosz
Zieli\'nski
- Abstract要約: 決定木は二分決定に基づいており、決定を素早くし、クラス階層を提供するため、容易に解釈できる。
決定木がよく知られた欠点の1つは、決定木が決定ノードを再利用できないことである。
本稿では、マルコフ過程に基づく一般的なパラダイムを提供する。これは、自己組織化ニューラルネットワーク(SONG)と呼ばれる特殊なタイプの決定グラフの効率的なトレーニングを可能にする。
- 参考スコア(独自算出の注目度): 10.253870280561609
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have seen a surge in research on deep interpretable neural
networks with decision trees as one of the most commonly incorporated tools.
There are at least three advantages of using decision trees over logistic
regression classification models: they are easy to interpret since they are
based on binary decisions, they can make decisions faster, and they provide a
hierarchy of classes. However, one of the well-known drawbacks of decision
trees, as compared to decision graphs, is that decision trees cannot reuse the
decision nodes. Nevertheless, decision graphs were not commonly used in deep
learning due to the lack of efficient gradient-based training techniques. In
this paper, we fill this gap and provide a general paradigm based on Markov
processes, which allows for efficient training of the special type of decision
graphs, which we call Self-Organizing Neural Graphs (SONG). We provide an
extensive theoretical study of SONG, complemented by experiments conducted on
Letter, Connect4, MNIST, CIFAR, and TinyImageNet datasets, showing that our
method performs on par or better than existing decision models.
- Abstract(参考訳): 近年、決定木を最も一般的に組み込んだツールとして、深い解釈可能なニューラルネットワークの研究が急増している。
ロジスティック回帰分類モデルよりも決定木を使うことの少なくとも3つの利点は、バイナリ決定に基づくため解釈が容易であり、決定を素早くし、クラス階層を提供する。
しかしながら、決定木が決定木に対してよく知られた欠点の1つは、決定木が決定ノードを再利用できないことである。
それでも、効率的な勾配に基づくトレーニング技術がないため、決定グラフはディープラーニングでは一般的には使われなかった。
本稿では,このギャップを埋め,マルコフ過程に基づく一般的なパラダイムを提供することにより,自己組織型ニューラルグラフ(SONG)と呼ばれる,特殊なタイプの決定グラフの効率的なトレーニングを可能にする。
本稿では,Lear,Connect4,MNIST,CIFAR,TinyImageNetで行った実験を補完するSONGに関する広範な理論的研究を行い,本手法が既存の決定モデルと同等以上の性能を示すことを示す。
関連論文リスト
- Construction of Decision Trees and Acyclic Decision Graphs from Decision
Rule Systems [0.0]
本稿では,決定木を構成する複雑さと決定木を表す非周期決定グラフについて考察する。
決定木全体を構築しない可能性について論じるが、与えられた入力に対して、この木で計算経路を記述する。
論文 参考訳(メタデータ) (2023-05-02T18:40:48Z) - State of the Art and Potentialities of Graph-level Learning [54.68482109186052]
グラフレベルの学習は、比較、回帰、分類など、多くのタスクに適用されている。
グラフの集合を学習する伝統的なアプローチは、サブストラクチャのような手作りの特徴に依存している。
ディープラーニングは、機能を自動的に抽出し、グラフを低次元表現に符号化することで、グラフレベルの学習をグラフの規模に適応させるのに役立っている。
論文 参考訳(メタデータ) (2023-01-14T09:15:49Z) - Deep Manifold Learning with Graph Mining [80.84145791017968]
グラフマイニングのための非段階的決定層を持つ新しいグラフ深層モデルを提案する。
提案モデルでは,現行モデルと比較して最先端性能を実現している。
論文 参考訳(メタデータ) (2022-07-18T04:34:08Z) - Optimal Decision Diagrams for Classification [68.72078059880018]
数学的プログラミングの観点から最適決定図の学習について検討する。
本稿では,新しい混合整数線形プログラミングモデルを提案する。
このモデルは、公正性、同義性、安定性の概念に対してどのように容易に拡張できるかを示す。
論文 参考訳(メタデータ) (2022-05-28T18:31:23Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - Tree in Tree: from Decision Trees to Decision Graphs [2.2336243882030025]
Tree in Tree decision graph (TnT)は、従来の決定木をより汎用的で強力な非巡回グラフに拡張するフレームワークである。
提案するモデルは,広く用いられている決定木に代わる,新しい,より効率的かつ正確な代替手段である。
論文 参考訳(メタデータ) (2021-10-01T13:20:05Z) - Dive into Decision Trees and Forests: A Theoretical Demonstration [0.0]
決定木は"divide-and-conquer"の戦略を使用して、入力機能とラベル間の依存性に関する複雑な問題を小さなものに分割します。
近年, 計算広告, 推薦システム, 情報検索などの性能が大幅に向上している。
論文 参考訳(メタデータ) (2021-01-20T16:47:59Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Learning Representations for Axis-Aligned Decision Forests through Input
Perturbation [2.755007887718791]
軸に整合した意思決定の森は、長い間機械学習アルゴリズムの主要なクラスでした。
広く使われていることと豊富な歴史にもかかわらず、現在の決定林は生の構造化データを消費することができない。
本稿では,意思決定林の表現学習を実現するための新しい,直感的な提案を提案する。
論文 参考訳(メタデータ) (2020-07-29T11:56:38Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - dtControl: Decision Tree Learning Algorithms for Controller
Representation [0.0]
決定木は証明可能な正確なコントローラを簡潔に表現するために使用することができる。
本稿では、メモリレスコントローラを決定木として表現するための簡易な合成ツールであるdtControlについて述べる。
論文 参考訳(メタデータ) (2020-02-12T17:13:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。