論文の概要: Analyzing the tree-layer structure of Deep Forests
- arxiv url: http://arxiv.org/abs/2010.15690v3
- Date: Thu, 14 Oct 2021 08:25:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 00:03:55.086375
- Title: Analyzing the tree-layer structure of Deep Forests
- Title(参考訳): 深い森林の樹木層構造の解析
- Authors: Ludovic Arnould (LPSM (UMR\_8001)), Claire Boyer (LPSM (UMR\_8001)),
Erwan Scornet (CMAP), Sorbonne Lpsm
- Abstract要約: 本稿では,DF性能のベンチマークではなく,その基盤となるメカニズムを検討することを目的とする。
我々は,古典的決定木の性能を高めるために,浅い木ネットワークを示す理論的枠組みを示す。
これらの理論的結果は、データエンコーダとして機能する第1層が十分にリッチである場合に、十分に構造化されたデータに対するツリーネットワークアーキテクチャの関心を示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Random forests on the one hand, and neural networks on the other hand, have
met great success in the machine learning community for their predictive
performance. Combinations of both have been proposed in the literature, notably
leading to the so-called deep forests (DF) (Zhou \& Feng,2019). In this paper,
our aim is not to benchmark DF performances but to investigate instead their
underlying mechanisms. Additionally, DF architecture can be generally
simplified into more simple and computationally efficient shallow forest
networks. Despite some instability, the latter may outperform standard
predictive tree-based methods. We exhibit a theoretical framework in which a
shallow tree network is shown to enhance the performance of classical decision
trees. In such a setting, we provide tight theoretical lower and upper bounds
on its excess risk. These theoretical results show the interest of tree-network
architectures for well-structured data provided that the first layer, acting as
a data encoder, is rich enough.
- Abstract(参考訳): 一方、ランダムフォレストとニューラルネットワークは、その予測性能で機械学習コミュニティで大きな成功を収めています。
この2つの組み合わせは文学において提案されており、特に「深い森」(Zhou \& Feng,2019) と呼ばれる。
本稿では,DF性能のベンチマークではなく,その基盤となるメカニズムを検討することを目的とする。
さらに、DFアーキテクチャは一般に単純化され、よりシンプルで計算的に効率的な浅い森林ネットワークにすることができる。
いくつかの不安定さにもかかわらず、後者は標準的な予測木に基づく手法より優れている。
我々は,古典的決定木の性能を高めるために,浅い木ネットワークを示す理論的枠組みを示す。
このような場合、その過度なリスクについて、理論上の下限と上限を厳密に提示する。
これらの理論的な結果は、データエンコーダとして振る舞う第1層が十分にリッチであることから、構造化されたデータに対するツリーネットワークアーキテクチャの関心を示している。
関連論文リスト
- Deep Trees for (Un)structured Data: Tractability, Performance, and Interpretability [4.462264781248437]
汎用ソフトツリー(GST)を導入し、ソフト決定木(ST)を拡張し、画像を直接処理できる。
トラクタビリティ、パフォーマンス、解釈可能性に関して、これらの利点を示します。
我々は,MIMIC-IV,MNIST,Fashion MNIST,CIFAR-10,Celeb-Aなどのベンチマークデータセットを用いて,GSTの性能を検証した。
論文 参考訳(メタデータ) (2024-10-28T23:02:41Z) - ARTree: A Deep Autoregressive Model for Phylogenetic Inference [6.935130578959931]
グラフニューラルネットワーク(GNN)に基づく系統推定のための深層自己回帰モデルを提案する。
本研究では,本手法の有効性と効率を,実データツリーのトポロジー密度推定と変分系統推定問題のベンチマークで実証する。
論文 参考訳(メタデータ) (2023-10-14T10:26:03Z) - Constructing Phylogenetic Networks via Cherry Picking and Machine
Learning [0.1045050906735615]
既存の手法は計算コストが高く、少数の系統樹のみを扱うか、厳格に制限されたネットワーククラスに制限される。
本稿では,最近導入されたチェリーピッキングの理論的枠組みを適用し,各入力木を含むネットワークを生成することが保証される効率のクラスを設計する。
また、複数回実行した場合に非常に効果的であることが証明された、単純で高速なランダム化も提案する。
論文 参考訳(メタデータ) (2023-03-31T15:04:42Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Making CNNs Interpretable by Building Dynamic Sequential Decision
Forests with Top-down Hierarchy Learning [62.82046926149371]
本稿では,CNN(Convlutional Neural Networks)を解釈可能なモデル転送方式を提案する。
我々は、CNNの上に微分可能な意思決定林を構築することで、これを実現する。
DDSDF(Dep Dynamic Sequential Decision Forest)と命名する。
論文 参考訳(メタデータ) (2021-06-05T07:41:18Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。