論文の概要: A Dynamic Weighted Tabular Method for Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2205.10386v1
- Date: Fri, 20 May 2022 18:02:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-05 23:45:02.444142
- Title: A Dynamic Weighted Tabular Method for Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークのための動的重み付き表法
- Authors: Md Ifraham Iqbal, Md. Saddam Hossain Mukta, Ahmed Rafi Hasan
- Abstract要約: 本研究では,動的重み付きタブラル法(DWTM)という新しい手法を紹介する。
本手法は,各特徴量にアソシエーションの強さに基づく重みをクラスラベルに動的に割り当てる。
6つのベンチマークデータセット上で優れたパフォーマンス(平均精度=95%)を達成する。
- 参考スコア(独自算出の注目度): 0.3867363075280544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional Machine Learning (ML) models like Support Vector Machine, Random
Forest, and Logistic Regression are generally preferred for classification
tasks on tabular datasets. Tabular data consists of rows and columns
corresponding to instances and features, respectively. Past studies indicate
that traditional classifiers often produce unsatisfactory results in complex
tabular datasets. Hence, researchers attempt to use the powerful Convolutional
Neural Networks (CNN) for tabular datasets. Recent studies propose several
techniques like SuperTML, Conditional GAN (CTGAN), and Tabular Convolution
(TAC) for applying Convolutional Neural Networks (CNN) on tabular data. These
models outperform the traditional classifiers and substantially improve the
performance on tabular data. This study introduces a novel technique, namely,
Dynamic Weighted Tabular Method (DWTM), that uses feature weights dynamically
based on statistical techniques to apply CNNs on tabular datasets. The method
assigns weights dynamically to each feature based on their strength of
associativity to the class labels. Each data point is converted into images and
fed to a CNN model. The features are allocated image canvas space based on
their weights. The DWTM is an improvement on the previously mentioned methods
as it dynamically implements the entire experimental setting rather than using
the static configuration provided in the previous methods. Furthermore, it uses
the novel idea of using feature weights to create image canvas space. In this
paper, the DWTM is applied to six benchmarked tabular datasets and it achieves
outstanding performance (i.e., average accuracy = 95%) on all of them.
- Abstract(参考訳): Support Vector Machine、Random Forest、Logistic Regressionといった従来の機械学習(ML)モデルは、一般に表データセットの分類タスクに好まれる。
タブラルデータは、それぞれインスタンスと特徴に対応する行と列で構成される。
過去の研究では、従来の分類器は複雑な表型データセットで不十分な結果を生み出すことが多い。
したがって、研究者は強力な畳み込みニューラルネットワーク(CNN)を表のデータセットに利用しようと試みる。
最近の研究では、表データに畳み込みニューラルネットワーク(CNN)を適用するためのSuperTML、CTGAN、Tabular Convolution(TAC)などの技術が提案されている。
これらのモデルは従来の分類器よりも優れ、表データの性能を大幅に向上させる。
本研究では,統計手法に基づく特徴量重みを動的に用い,表型データセットにcnnを適用する新しい手法であるdynamic weighted tabular method (dwtm)を提案する。
本手法は,各特徴量にアソシエーションの強さに基づく重みをクラスラベルに動的に割り当てる。
各データポイントはイメージに変換され、CNNモデルに供給される。
特徴は、その重みに基づいて、画像キャンバス空間に割り当てられる。
DWTMは、前述のメソッドで提供される静的な設定ではなく、実験的な設定全体を動的に実装するので、上記のメソッドの改善である。
さらに、画像キャンバス空間を作成するために機能重みを使用するという斬新なアイデアを使う。
本稿では、DWTMを6つのベンチマークされた表付きデータセットに適用し、それらすべてに対して優れた性能(平均精度=95%)を達成する。
関連論文リスト
- TabDPT: Scaling Tabular Foundation Models [20.00390825519329]
実データによる性能向上と一般化の方法を示す。
本モデルでは,CC18(分類)およびCTR23(回帰)ベンチマークの最先端性能を実現する。
TabDPTはまた、モデルのサイズと利用可能なデータの量の両方が増加するにつれて、強力なスケーリングを示す。
論文 参考訳(メタデータ) (2024-10-23T18:00:00Z) - A Survey on Deep Tabular Learning [0.0]
タブラルデータは、その不均一な性質と空間構造が欠如していることから、深層学習の独特な課題を提示する。
本調査では,早期完全接続ネットワーク(FCN)から,TabNet,SAINT,TabTranSELU,MambaNetといった先進アーキテクチャに至るまで,タブラルデータのディープラーニングモデルの進化を概観する。
論文 参考訳(メタデータ) (2024-10-15T20:08:08Z) - TabGraphs: A Benchmark and Strong Baselines for Learning on Graphs with Tabular Node Features [17.277932238538302]
タブラル機械学習はグラフ機械学習の手法の恩恵を受けるかもしれない。
グラフニューラルネットワーク(GNN)は、予測性能が向上することが多い。
単純な機能前処理により、GNNと競合し、さらに性能も向上する。
論文 参考訳(メタデータ) (2024-09-22T15:53:19Z) - A Closer Look at Deep Learning on Tabular Data [52.50778536274327]
タブラルデータは、機械学習の様々な領域で広く使われている。
Deep Neural Network(DNN)ベースの手法は、ツリーベースに匹敵する有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-07-01T04:24:07Z) - Tokenize features, enhancing tables: the FT-TABPFN model for tabular classification [13.481699494376809]
FT-TabPFNはTabPFNの拡張版で、分類機能をよりよく扱うための新しい機能トークン化レイヤを含んでいる。
私たちの完全なソースコードは、コミュニティの利用と開発に利用可能です。
論文 参考訳(メタデータ) (2024-06-11T02:13:46Z) - Making Pre-trained Language Models Great on Tabular Prediction [50.70574370855663]
ディープニューラルネットワーク(DNN)の転送性は、画像および言語処理において著しく進歩している。
本稿では,表型データ予測のための訓練済みLMであるTP-BERTaを提案する。
新たな相対等級トークン化では、スカラー数値の特徴値を細分化した高次元トークンに変換し、特徴値と対応する特徴名を統合する。
論文 参考訳(メタデータ) (2024-03-04T08:38:56Z) - Training-Free Generalization on Heterogeneous Tabular Data via
Meta-Representation [67.30538142519067]
メタ表現(TabPTM)を用いたタブラルデータ事前学習を提案する。
深層ニューラルネットワークは、これらのメタ表現とデータセット固有の分類信頼度を関連付けるように訓練される。
実験により、TabPTMは、数ショットのシナリオであっても、新しいデータセットで有望なパフォーマンスを達成することを確認した。
論文 参考訳(メタデータ) (2023-10-31T18:03:54Z) - Transfer Learning with Deep Tabular Models [66.67017691983182]
上流データにより、グラフニューラルネットワークはGBDTモデルよりも決定的な優位性を示す。
そこで本研究では,表在化学習のための現実的な診断ベンチマークを提案する。
上流と下流の特徴セットが異なる場合の擬似特徴法を提案する。
論文 参考訳(メタデータ) (2022-06-30T14:24:32Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。