論文の概要: Between-Sample Relationship in Learning Tabular Data Using Graph and
Attention Networks
- arxiv url: http://arxiv.org/abs/2306.06772v1
- Date: Sun, 11 Jun 2023 20:56:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 16:46:48.939427
- Title: Between-Sample Relationship in Learning Tabular Data Using Graph and
Attention Networks
- Title(参考訳): グラフと注意ネットワークを用いた単語学習におけるサンプル間関係
- Authors: Shourav B. Rabbani and Manar D. Samad
- Abstract要約: 本論文は, サンプル間の関係を組み込むことで表型データ表現を学習するi.d仮定を緩和する。
いくつかのGNNとSOTA(State-of-the-art attention model)を用いた仮説について検討する。
その結果,5つのデータセット上での従来の機械学習と,3つのデータセット上でのSOTA深層表型学習よりも注目度の高いGNN手法が優れていることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Traditional machine learning assumes samples in tabular data to be
independent and identically distributed (i.i.d). This assumption may miss
useful information within and between sample relationships in representation
learning. This paper relaxes the i.i.d assumption to learn tabular data
representations by incorporating between-sample relationships for the first
time using graph neural networks (GNN). We investigate our hypothesis using
several GNNs and state-of-the-art (SOTA) deep attention models to learn the
between-sample relationship on ten tabular data sets by comparing them to
traditional machine learning methods. GNN methods show the best performance on
tabular data with large feature-to-sample ratios. Our results reveal that
attention-based GNN methods outperform traditional machine learning on five
data sets and SOTA deep tabular learning methods on three data sets.
Between-sample learning via GNN and deep attention methods yield the best
classification accuracy on seven of the ten data sets. This suggests that the
i.i.d assumption may not always hold for most tabular data sets.
- Abstract(参考訳): 従来の機械学習では、表データのサンプルは独立で同一に分散されていると仮定している。
この仮定は、表現学習におけるサンプル関係内およびサンプル間の有用な情報を見逃す可能性がある。
本稿では,グラフニューラルネットワーク(GNN)を用いて,初めてサンプル間関係を組み込むことにより,表型データ表現を学習するためのi.d仮定を緩和する。
本仮説は,いくつかのgnnと最先端(sota)深層注意モデルを用いて,従来の機械学習手法と比較し,10個の表型データセットのサンプル間関係を学習する。
GNN法は大きな特徴対サンプル比を持つ表データ上で最高の性能を示す。
その結果,5つのデータセット上での従来の機械学習と,3つのデータセット上でのSOTA深層表型学習よりも注目度の高いGNN手法が優れていることがわかった。
GNNとディープ・アテンション・メソッドによるサンプル間学習は10データセットのうち7セットで最高の分類精度が得られる。
これは、i.i.d仮定がほとんどの表型データセットに対して常に成り立つとは限らないことを示唆する。
関連論文リスト
- TabGraphs: A Benchmark and Strong Baselines for Learning on Graphs with Tabular Node Features [17.277932238538302]
タブラル機械学習はグラフ機械学習の手法の恩恵を受けるかもしれない。
グラフニューラルネットワーク(GNN)は、予測性能が向上することが多い。
単純な機能前処理により、GNNと競合し、さらに性能も向上する。
論文 参考訳(メタデータ) (2024-09-22T15:53:19Z) - Making Pre-trained Language Models Great on Tabular Prediction [50.70574370855663]
ディープニューラルネットワーク(DNN)の転送性は、画像および言語処理において著しく進歩している。
本稿では,表型データ予測のための訓練済みLMであるTP-BERTaを提案する。
新たな相対等級トークン化では、スカラー数値の特徴値を細分化した高次元トークンに変換し、特徴値と対応する特徴名を統合する。
論文 参考訳(メタデータ) (2024-03-04T08:38:56Z) - Attention versus Contrastive Learning of Tabular Data -- A Data-centric
Benchmarking [0.0]
本稿では,28データセットの幅広い選択に対して,最先端の注意と対照的な学習手法を広く評価する。
ハイブリット・アテンション・コントラストの学習戦略は、主に分類が難しいデータセットに勝っている。
従来の手法は、おそらくより単純な決定境界を持つデータセットを分類しやすくするのにしばしば優れている。
論文 参考訳(メタデータ) (2024-01-08T22:36:05Z) - Training-Free Generalization on Heterogeneous Tabular Data via
Meta-Representation [67.30538142519067]
メタ表現(TabPTM)を用いたタブラルデータ事前学習を提案する。
深層ニューラルネットワークは、これらのメタ表現とデータセット固有の分類信頼度を関連付けるように訓練される。
実験により、TabPTMは、数ショットのシナリオであっても、新しいデータセットで有望なパフォーマンスを達成することを確認した。
論文 参考訳(メタデータ) (2023-10-31T18:03:54Z) - Learning Representations without Compositional Assumptions [79.12273403390311]
本稿では,特徴集合をグラフノードとして表現し,それらの関係を学習可能なエッジとして表現することで,特徴集合の依存関係を学習するデータ駆動型アプローチを提案する。
また,複数のビューから情報を動的に集約するために,より小さな潜在グラフを学習する新しい階層グラフオートエンコーダLEGATOを導入する。
論文 参考訳(メタデータ) (2023-05-31T10:36:10Z) - TabGSL: Graph Structure Learning for Tabular Data Prediction [10.66048003460524]
本稿では,グラフ構造学習(Tabular Graph Structure Learning, TabGSL)という新しい手法を提案する。
30のベンチマークデータセットで実施された実験では、TabGSLがツリーベースモデルと最近のディープラーニングベースモデルの両方を著しく上回っていることが示されている。
論文 参考訳(メタデータ) (2023-05-25T08:33:48Z) - Why do tree-based models still outperform deep learning on tabular data? [0.0]
木をベースとしたモデルが中規模データの最先端のままであることを示す。
木系モデルとニューラルネットワーク(NN)の異なる帰納バイアスに関する実証的研究を行う。
論文 参考訳(メタデータ) (2022-07-18T08:36:08Z) - Transfer Learning with Deep Tabular Models [66.67017691983182]
上流データにより、グラフニューラルネットワークはGBDTモデルよりも決定的な優位性を示す。
そこで本研究では,表在化学習のための現実的な診断ベンチマークを提案する。
上流と下流の特徴セットが異なる場合の擬似特徴法を提案する。
論文 参考訳(メタデータ) (2022-06-30T14:24:32Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - TabGNN: Multiplex Graph Neural Network for Tabular Data Prediction [43.35301059378836]
最近普及しているグラフニューラルネットワーク(GNN)に基づく新しいフレームワークTabGNNを提案する。
具体的には,まず,多面的サンプル関係をモデル化するための多重グラフを構築し,次に,各サンプルに対する拡張表現を学習するための多重グラフニューラルネットワークを設計する。
分類と回帰を含む11のTDPデータセットに対する実験は、TabGNNが一貫して性能を向上できることを示している。
論文 参考訳(メタデータ) (2021-08-20T11:51:32Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。