論文の概要: DOFEN: Deep Oblivious Forest ENsemble
- arxiv url: http://arxiv.org/abs/2412.16534v2
- Date: Tue, 24 Dec 2024 09:00:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 12:34:09.079475
- Title: DOFEN: Deep Oblivious Forest ENsemble
- Title(参考訳): DOFEN:深い森のアンサンブル
- Authors: Kuan-Yu Chen, Ping-Han Chiang, Hsin-Rung Chou, Chih-Sheng Chen, Tien-Hao Chang,
- Abstract要約: Deep Neural Networks(DNN)は人工知能に革命をもたらし、画像、ビデオ、テキストなど、さまざまなデータタイプに対して素晴らしい成果を上げている。
難解な決定木にインスパイアされた新しいDNNアーキテクチャであるDOFENを提案する。
DOFENは、各カラムの条件をランダムに組み合わせて、ゆるやかな不愉快な決定木(RoODT)を構築し、さらに2段階のRODT森林アンサンブルプロセスで性能を向上させる。
- 参考スコア(独自算出の注目度): 5.379290380015323
- License:
- Abstract: Deep Neural Networks (DNNs) have revolutionized artificial intelligence, achieving impressive results on diverse data types, including images, videos, and texts. However, DNNs still lag behind Gradient Boosting Decision Trees (GBDT) on tabular data, a format extensively utilized across various domains. In this paper, we propose DOFEN, short for \textbf{D}eep \textbf{O}blivious \textbf{F}orest \textbf{EN}semble, a novel DNN architecture inspired by oblivious decision trees. DOFEN constructs relaxed oblivious decision trees (rODTs) by randomly combining conditions for each column and further enhances performance with a two-level rODT forest ensembling process. By employing this approach, DOFEN achieves state-of-the-art results among DNNs and further narrows the gap between DNNs and tree-based models on the well-recognized benchmark: Tabular Benchmark \citep{grinsztajn2022tree}, which includes 73 total datasets spanning a wide array of domains. The code of DOFEN is available at: \url{https://github.com/Sinopac-Digital-Technology-Division/DOFEN}.
- Abstract(参考訳): Deep Neural Networks(DNN)は人工知能に革命をもたらし、画像、ビデオ、テキストなど、さまざまなデータタイプに対して素晴らしい成果を上げている。
しかし、DNNはグラフデータでGBDT(Gradient Boosting Decision Tree)に遅れを取っている。
本稿では,不明瞭な決定木にインスパイアされた新しいDNNアーキテクチャであるDOFENを提案する。
DOFENは、各カラムの条件をランダムに組み合わせて、ゆるやかな不愉快な決定木(RoODT)を構築し、さらに2段階のRODT森林アンサンブルプロセスで性能を向上させる。
このアプローチを採用することで、DOFENはDNN間の最先端の結果を達成し、よく認識されたベンチマーク上のDNNとツリーベースモデルのギャップをさらに狭める。
DOFENのコードは、 \url{https://github.com/Sinopac-Digital-Technology-Division/DOFEN}で公開されている。
関連論文リスト
- NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - Tree-Regularized Tabular Embeddings [22.095328171882223]
タブラルニューラルネットワーク(NN)は注目を浴びており、近年の進歩により、多くの公開データセット上のツリーベースモデルに対するパフォーマンスギャップが徐々に狭まりつつある。
我々は、均質な埋め込みの重要性を強調し、教師付き事前学習による入力の正規化に交互に集中する。
具体的には、事前訓練された木のアンサンブルの構造を利用して、生変数を単一のベクトル(T2V)またはトークンの配列(T2T)に変換する。
論文 参考訳(メタデータ) (2024-03-01T20:26:33Z) - MatchNAS: Optimizing Edge AI in Sparse-Label Data Contexts via
Automating Deep Neural Network Porting for Mobile Deployment [54.77943671991863]
MatchNASはDeep Neural Networksをモバイルデバイスに移植するための新しいスキームである。
ラベル付きデータと非ラベル付きデータの両方を用いて、大規模なネットワークファミリを最適化する。
そして、さまざまなハードウェアプラットフォーム用に調整されたネットワークを自動的に検索する。
論文 参考訳(メタデータ) (2024-02-21T04:43:12Z) - Efficient Link Prediction via GNN Layers Induced by Negative Sampling [86.87385758192566]
リンク予測のためのグラフニューラルネットワーク(GNN)は、緩やかに2つの広いカテゴリに分けられる。
本稿では,新しいGNNアーキテクチャを提案する。このアーキテクチャでは,Emphforwardパスは,Emphboth陽性(典型的)と負陰性(アプローチに共通)のエッジに明示的に依存する。
これは、埋め込み自体を、正と負のサンプルの分離を好むフォワードパス特異的エネルギー関数の最小化子として再キャストすることで達成される。
論文 参考訳(メタデータ) (2023-10-14T07:02:54Z) - Graph Neural Network contextual embedding for Deep Learning on Tabular
Data [0.45880283710344055]
ディープラーニング(DL)は、自然言語処理のような人間のスキルに関連する分野において、AIにとって大きなブレークスルーとなっている。
本稿では,グラフニューラルネットワーク(GNN)を用いた新しいDLモデル,特にインタラクションネットワーク(IN)を提案する。
この結果は、最近発表された5つの公開データセットに基づいたDLベンチマークによる調査よりも優れており、増木ソリューションと比較しても競争力のある結果が得られている。
論文 参考訳(メタデータ) (2023-03-11T17:13:24Z) - DecisioNet -- A Binary-Tree Structured Neural Network [0.12183405753834559]
本稿では,二分木構造ニューラルネットワークDecisioNet(DN)を提案する。
DNの変種は、元のネットワークの計算コストを大幅に削減しつつ、同様の精度を実現する。
論文 参考訳(メタデータ) (2022-07-03T21:47:03Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - DT+GNN: A Fully Explainable Graph Neural Network using Decision Trees [11.584771636861877]
本稿では,完全説明可能な決定木グラフニューラルネットワーク(DT+GNN)アーキテクチャを提案する。
既存のブラックボックスGNNやポストホックな説明法とは対照的に、DT+GNNの推論は各ステップで検査できる。
実世界のデータセットと合成GNN説明可能性ベンチマークの両方で、このアーキテクチャは従来のGNNと同様に機能することを示す。
論文 参考訳(メタデータ) (2022-05-26T09:01:50Z) - Boost then Convolve: Gradient Boosting Meets Graph Neural Networks [6.888700669980625]
グラデーションブースト決定木(gbdt)は,異種データに対して他の機械学習手法よりも優れていることが示されている。
我々は,gbdt と gnn を共同で訓練し,両世界のベストを勝ち取る新しいアーキテクチャを提案する。
我々のモデルは、GNNの勾配更新に新しい木を適合させることにより、エンドツーエンドの最適化の恩恵を受ける。
論文 参考訳(メタデータ) (2021-01-21T10:46:41Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。