論文の概要: DANets: Deep Abstract Networks for Tabular Data Classification and
Regression
- arxiv url: http://arxiv.org/abs/2112.02962v1
- Date: Mon, 6 Dec 2021 12:15:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 15:04:57.493946
- Title: DANets: Deep Abstract Networks for Tabular Data Classification and
Regression
- Title(参考訳): danets: 表データ分類と回帰のための深い抽象ネットワーク
- Authors: Jintai Chen, Kuanlun Liao, Yao Wan, Danny Z. Chen, Jian Wu
- Abstract要約: Abstract Layer (AbstLay)は、相関的な入力機能を明示的にグループ化し、セマンティクスの抽象化のための高レベルな機能を生成する。
表形式のデータ分類と回帰のためのDeep Abstract Networks (DANets) のファミリー。
- 参考スコア(独自算出の注目度): 9.295859461145783
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tabular data are ubiquitous in real world applications. Although many
commonly-used neural components (e.g., convolution) and extensible neural
networks (e.g., ResNet) have been developed by the machine learning community,
few of them were effective for tabular data and few designs were adequately
tailored for tabular data structures. In this paper, we propose a novel and
flexible neural component for tabular data, called Abstract Layer (AbstLay),
which learns to explicitly group correlative input features and generate
higher-level features for semantics abstraction. Also, we design a structure
re-parameterization method to compress AbstLay, thus reducing the computational
complexity by a clear margin in the reference phase. A special basic block is
built using AbstLays, and we construct a family of Deep Abstract Networks
(DANets) for tabular data classification and regression by stacking such
blocks. In DANets, a special shortcut path is introduced to fetch information
from raw tabular features, assisting feature interactions across different
levels. Comprehensive experiments on seven real-world tabular datasets show
that our AbstLay and DANets are effective for tabular data classification and
regression, and the computational complexity is superior to competitive
methods. Besides, we evaluate the performance gains of DANet as it goes deep,
verifying the extendibility of our method. Our code is available at
https://github.com/WhatAShot/DANet.
- Abstract(参考訳): 表データは現実世界のアプリケーションにおいてユビキタスである。
多くのよく使われるニューラルネットワークコンポーネント(畳み込みなど)と拡張可能なニューラルネットワーク(resnetなど)は、機械学習コミュニティによって開発されてきたが、表データに効果のあるものは少なく、表データ構造に合わせた設計は少ない。
本稿では,抽象層(AbstLay)と呼ばれる,表層データに対する新しいフレキシブルなニューラルコンポーネントを提案する。
また,abstlayを圧縮する構造再パラメータ化法を設計すれば,参照位相の明瞭なマージンによる計算複雑性を低減できる。
本稿では,AbstLaysを用いて特別な基本ブロックを構築し,それらのブロックを積み重ねて表層データ分類と回帰を行うためのDANet(Deep Abstract Networks)のファミリを構築する。
danetsでは、生の表機能から情報を取得するための特別なショートカットパスが導入され、さまざまなレベルにわたる機能インタラクションを支援している。
7つの実世界の表型データセットに関する包括的な実験は、abstlayとdanetsが表型データ分類と回帰に有効であり、計算複雑性は競合手法よりも優れていることを示している。
さらに,danetの性能向上度の評価を行い,その拡張性を検証する。
私たちのコードはhttps://github.com/whatashot/danetで利用可能です。
関連論文リスト
- TabKANet: Tabular Data Modeling with Kolmogorov-Arnold Network and Transformer [12.237450884462888]
TabKANetは数値コンテンツから学習するモデルである。
ニューラルネットワーク(NN)と比較してパフォーマンスが優れている。
私たちのコードはGitHubで公開されています。
論文 参考訳(メタデータ) (2024-09-13T13:14:54Z) - Deep Feature Embedding for Tabular Data [2.1301560294088318]
本稿では,軽量なディープニューラルネットワークを利用した新しいディープ埋め込みフレームワークを提案する。
数値的特徴量には、2段階の特徴展開と深層変換法が用いられる。
実世界のデータセットを用いて実験を行い、性能評価を行った。
論文 参考訳(メタデータ) (2024-08-30T10:05:24Z) - (PASS) Visual Prompt Locates Good Structure Sparsity through a Recurrent HyperNetwork [60.889175951038496]
大規模ニューラルネットワークは、視覚や言語処理など、さまざまな領域で顕著なパフォーマンスを示している。
構造的刈り込みの鍵となる問題のひとつは、チャネルの意義を見積もる方法である。
我々は,新しいアルゴリズムフレームワーク,すなわち textttPASS を提案する。
視覚的プロンプトとネットワーク重み統計の両方を入力とし、繰り返し的に層ワイドチャネル間隔を出力するように調整されたハイパーネットワークである。
論文 参考訳(メタデータ) (2024-07-24T16:47:45Z) - Data Augmentations in Deep Weight Spaces [89.45272760013928]
そこで本研究では,Mixup法に基づく新しい拡張手法を提案する。
既存のベンチマークと新しいベンチマークでこれらのテクニックのパフォーマンスを評価する。
論文 参考訳(メタデータ) (2023-11-15T10:43:13Z) - Graph Neural Network contextual embedding for Deep Learning on Tabular
Data [0.45880283710344055]
ディープラーニング(DL)は、自然言語処理のような人間のスキルに関連する分野において、AIにとって大きなブレークスルーとなっている。
本稿では,グラフニューラルネットワーク(GNN)を用いた新しいDLモデル,特にインタラクションネットワーク(IN)を提案する。
この結果は、最近発表された5つの公開データセットに基づいたDLベンチマークによる調査よりも優れており、増木ソリューションと比較しても競争力のある結果が得られている。
論文 参考訳(メタデータ) (2023-03-11T17:13:24Z) - TabPFN: A Transformer That Solves Small Tabular Classification Problems
in a Second [48.87527918630822]
トレーニングされたトランスフォーマーであるTabPFNは、小さなデータセットの教師付き分類を1秒以内で行うことができる。
TabPFNはコンテキスト内学習(ICL)を行い、ラベル付きサンプルのシーケンスを使用して予測を行う。
提案手法は, 強化木よりも明らかに優れており, 230$times$ Speedupの複雑なAutoMLシステムと同等性能を示す。
論文 参考訳(メタデータ) (2022-07-05T07:17:43Z) - Transfer Learning with Deep Tabular Models [66.67017691983182]
上流データにより、グラフニューラルネットワークはGBDTモデルよりも決定的な優位性を示す。
そこで本研究では,表在化学習のための現実的な診断ベンチマークを提案する。
上流と下流の特徴セットが異なる場合の擬似特徴法を提案する。
論文 参考訳(メタデータ) (2022-06-30T14:24:32Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Representation Extraction and Deep Neural Recommendation for
Collaborative Filtering [9.367612782346207]
本稿では,評価行列からユーザやアイテムを抽出する新しい表現学習アルゴリズムについて検討する。
Representation eXtraction と Deep Neural NETwork (RexNet) の2つの相からなるモジュラーアルゴリズムを提案する。
RexNetは、視覚情報やテキスト情報のような構造化されていない補助データに依存しない。
論文 参考訳(メタデータ) (2020-12-09T11:15:23Z) - EdgeNets:Edge Varying Graph Neural Networks [179.99395949679547]
本稿では、EdgeNetの概念を通じて、最先端グラフニューラルネットワーク(GNN)を統一する一般的なフレームワークを提案する。
EdgeNetはGNNアーキテクチャであり、異なるノードが異なるパラメータを使って異なる隣人の情報を測定することができる。
これは、ノードが実行でき、既存のグラフ畳み込みニューラルネットワーク(GCNN)とグラフアテンションネットワーク(GAT)の1つの定式化の下で包含できる一般的な線形で局所的な操作である。
論文 参考訳(メタデータ) (2020-01-21T15:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。