論文の概要: A Dynamic Weighted Tabular Method for Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2205.10386v1
- Date: Fri, 20 May 2022 18:02:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-05 23:45:02.444142
- Title: A Dynamic Weighted Tabular Method for Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークのための動的重み付き表法
- Authors: Md Ifraham Iqbal, Md. Saddam Hossain Mukta, Ahmed Rafi Hasan
- Abstract要約: 本研究では,動的重み付きタブラル法(DWTM)という新しい手法を紹介する。
本手法は,各特徴量にアソシエーションの強さに基づく重みをクラスラベルに動的に割り当てる。
6つのベンチマークデータセット上で優れたパフォーマンス(平均精度=95%)を達成する。
- 参考スコア(独自算出の注目度): 0.3867363075280544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional Machine Learning (ML) models like Support Vector Machine, Random
Forest, and Logistic Regression are generally preferred for classification
tasks on tabular datasets. Tabular data consists of rows and columns
corresponding to instances and features, respectively. Past studies indicate
that traditional classifiers often produce unsatisfactory results in complex
tabular datasets. Hence, researchers attempt to use the powerful Convolutional
Neural Networks (CNN) for tabular datasets. Recent studies propose several
techniques like SuperTML, Conditional GAN (CTGAN), and Tabular Convolution
(TAC) for applying Convolutional Neural Networks (CNN) on tabular data. These
models outperform the traditional classifiers and substantially improve the
performance on tabular data. This study introduces a novel technique, namely,
Dynamic Weighted Tabular Method (DWTM), that uses feature weights dynamically
based on statistical techniques to apply CNNs on tabular datasets. The method
assigns weights dynamically to each feature based on their strength of
associativity to the class labels. Each data point is converted into images and
fed to a CNN model. The features are allocated image canvas space based on
their weights. The DWTM is an improvement on the previously mentioned methods
as it dynamically implements the entire experimental setting rather than using
the static configuration provided in the previous methods. Furthermore, it uses
the novel idea of using feature weights to create image canvas space. In this
paper, the DWTM is applied to six benchmarked tabular datasets and it achieves
outstanding performance (i.e., average accuracy = 95%) on all of them.
- Abstract(参考訳): Support Vector Machine、Random Forest、Logistic Regressionといった従来の機械学習(ML)モデルは、一般に表データセットの分類タスクに好まれる。
タブラルデータは、それぞれインスタンスと特徴に対応する行と列で構成される。
過去の研究では、従来の分類器は複雑な表型データセットで不十分な結果を生み出すことが多い。
したがって、研究者は強力な畳み込みニューラルネットワーク(CNN)を表のデータセットに利用しようと試みる。
最近の研究では、表データに畳み込みニューラルネットワーク(CNN)を適用するためのSuperTML、CTGAN、Tabular Convolution(TAC)などの技術が提案されている。
これらのモデルは従来の分類器よりも優れ、表データの性能を大幅に向上させる。
本研究では,統計手法に基づく特徴量重みを動的に用い,表型データセットにcnnを適用する新しい手法であるdynamic weighted tabular method (dwtm)を提案する。
本手法は,各特徴量にアソシエーションの強さに基づく重みをクラスラベルに動的に割り当てる。
各データポイントはイメージに変換され、CNNモデルに供給される。
特徴は、その重みに基づいて、画像キャンバス空間に割り当てられる。
DWTMは、前述のメソッドで提供される静的な設定ではなく、実験的な設定全体を動的に実装するので、上記のメソッドの改善である。
さらに、画像キャンバス空間を作成するために機能重みを使用するという斬新なアイデアを使う。
本稿では、DWTMを6つのベンチマークされた表付きデータセットに適用し、それらすべてに対して優れた性能(平均精度=95%)を達成する。
関連論文リスト
- Making Pre-trained Language Models Great on Tabular Prediction [50.70574370855663]
ディープニューラルネットワーク(DNN)の転送性は、画像および言語処理において著しく進歩している。
本稿では,表型データ予測のための訓練済みLMであるTP-BERTaを提案する。
新たな相対等級トークン化では、スカラー数値の特徴値を細分化した高次元トークンに変換し、特徴値と対応する特徴名を統合する。
論文 参考訳(メタデータ) (2024-03-04T08:38:56Z) - Scaling TabPFN: Sketching and Feature Selection for Tabular Prior-Data
Fitted Networks [31.82225213006849]
タブラル分類は伝統的に教師付きアルゴリズムに依存しており、トレーニングデータを用いて予測モデルのパラメータを推定する。
近年、TabPFNのようなPFN(Presideed Data Fitted Networks)は、コンテキスト内の表データの分類に成功している。
このようなモデルは非常に有望であるが、実際のデータに適用可能であるのは計算規模が限られているためである。
論文 参考訳(メタデータ) (2023-11-17T16:04:27Z) - Training-Free Generalization on Heterogeneous Tabular Data via
Meta-Representation [67.30538142519067]
メタ表現(TabPTM)を用いたタブラルデータ事前学習を提案する。
深層ニューラルネットワークは、これらのメタ表現とデータセット固有の分類信頼度を関連付けるように訓練される。
実験により、TabPTMは、数ショットのシナリオであっても、新しいデータセットで有望なパフォーマンスを達成することを確認した。
論文 参考訳(メタデータ) (2023-10-31T18:03:54Z) - Functional Indirection Neural Estimator for Better Out-of-distribution
Generalization [27.291114360472243]
FINE(Functional Indirection Neural Estorimator)は、入力されたデータをオンザフライで出力する関数を構成することを学ぶ。
我々は、MNIST、Omniglot、CIFAR100データセットの画像を用いて、IQタスク上でFINEと競合するモデルを訓練する。
FINEはすべてのタスクで最高のパフォーマンスを達成するだけでなく、小さなデータシナリオにも適応できる。
論文 参考訳(メタデータ) (2022-10-23T14:43:02Z) - Why do tree-based models still outperform deep learning on tabular data? [0.0]
木をベースとしたモデルが中規模データの最先端のままであることを示す。
木系モデルとニューラルネットワーク(NN)の異なる帰納バイアスに関する実証的研究を行う。
論文 参考訳(メタデータ) (2022-07-18T08:36:08Z) - Transfer Learning with Deep Tabular Models [66.67017691983182]
上流データにより、グラフニューラルネットワークはGBDTモデルよりも決定的な優位性を示す。
そこで本研究では,表在化学習のための現実的な診断ベンチマークを提案する。
上流と下流の特徴セットが異なる場合の擬似特徴法を提案する。
論文 参考訳(メタデータ) (2022-06-30T14:24:32Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - TabGNN: Multiplex Graph Neural Network for Tabular Data Prediction [43.35301059378836]
最近普及しているグラフニューラルネットワーク(GNN)に基づく新しいフレームワークTabGNNを提案する。
具体的には,まず,多面的サンプル関係をモデル化するための多重グラフを構築し,次に,各サンプルに対する拡張表現を学習するための多重グラフニューラルネットワークを設計する。
分類と回帰を含む11のTDPデータセットに対する実験は、TabGNNが一貫して性能を向上できることを示している。
論文 参考訳(メタデータ) (2021-08-20T11:51:32Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。