論文の概要: TFWT: Tabular Feature Weighting with Transformer
- arxiv url: http://arxiv.org/abs/2405.08403v2
- Date: Fri, 17 May 2024 07:47:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-20 11:55:15.346937
- Title: TFWT: Tabular Feature Weighting with Transformer
- Title(参考訳): TFWT: Transformer によるタブラルな特徴重み付け
- Authors: Xinhao Zhang, Zaitian Wang, Lu Jiang, Wanfu Gao, Pengfei Wang, Kunpeng Liu,
- Abstract要約: 既存の特徴処理手法は、すべてのサンプルと1つのデータセットのフィーチャに等しく重要であると仮定する。
この単純化された処理方法は、各機能のユニークな貢献を見落とし、重要な特徴情報を見逃す可能性がある。
この問題に対処するため,Transformer を用いた Tabular Feature Weighting を提案する。
本手法では,Transformerを用いて複雑な特徴の依存関係をキャプチャし,離散的かつ連続的な特徴に適切な重み付けをコンテキスト的に割り当てる。
- 参考スコア(独自算出の注目度): 12.71058384486311
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel feature weighting method to address the limitation of existing feature processing methods for tabular data. Typically the existing methods assume equal importance across all samples and features in one dataset. This simplified processing methods overlook the unique contributions of each feature, and thus may miss important feature information. As a result, it leads to suboptimal performance in complex datasets with rich features. To address this problem, we introduce Tabular Feature Weighting with Transformer, a novel feature weighting approach for tabular data. Our method adopts Transformer to capture complex feature dependencies and contextually assign appropriate weights to discrete and continuous features. Besides, we employ a reinforcement learning strategy to further fine-tune the weighting process. Our extensive experimental results across various real-world datasets and diverse downstream tasks show the effectiveness of TFWT and highlight the potential for enhancing feature weighting in tabular data analysis.
- Abstract(参考訳): 本稿では,従来のグラフデータの特徴処理手法の限界に対処する特徴重み付け手法を提案する。
通常、既存のメソッドは1つのデータセット内のすべてのサンプルと機能に対して同等に重要であると仮定する。
この単純化された処理方法は、各機能のユニークな貢献を見落とし、重要な特徴情報を見逃す可能性がある。
結果として、リッチな特徴を持つ複雑なデータセットにおいて、最適以下のパフォーマンスがもたらされる。
この問題に対処するため,Tarbular Feature Weighting with Transformerを導入する。
本手法では,Transformerを用いて複雑な特徴の依存関係をキャプチャし,離散的かつ連続的な特徴に適切な重み付けをコンテキスト的に割り当てる。
さらに,重み付けプロセスをさらに微調整するために,強化学習戦略を採用している。
実世界の様々なデータセットと様々な下流タスクにまたがる広範な実験結果から、TFWTの有効性が示され、表層データ解析における特徴重み付けの強化の可能性が浮き彫りにされている。
関連論文リスト
- A Closer Look at Deep Learning on Tabular Data [52.50778536274327]
タブラルデータは、機械学習の様々な領域で広く使われている。
Deep Neural Network(DNN)ベースの手法は、ツリーベースに匹敵する有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-07-01T04:24:07Z) - Interpretable Machine Learning for TabPFN [5.012821694203072]
TabPFNモデルは、様々な分類タスクで最先端のパフォーマンスを達成することができる。
モデルのユニークな性質を利用することで、我々の適応はより効率的な計算を可能にします。
論文 参考訳(メタデータ) (2024-03-16T13:35:15Z) - SwitchTab: Switched Autoencoders Are Effective Tabular Learners [16.316153704284936]
グラフデータに対する自己教師付き表現手法であるSwitchTabを紹介する。
SwitchTabは、データペア間の相互および正常な機能を分離することで、潜伏した依存関係をキャプチャする。
その結果、微調整によるエンドツーエンド予測タスクにおいて、優れた性能を示した。
そこで我々は,SwitchTabが相互に疎結合で有意な特徴を可視化することで,説明可能な表現を生成する能力を強調した。
論文 参考訳(メタデータ) (2024-01-04T01:05:45Z) - Training-Free Generalization on Heterogeneous Tabular Data via
Meta-Representation [67.30538142519067]
メタ表現(TabPTM)を用いたタブラルデータ事前学習を提案する。
深層ニューラルネットワークは、これらのメタ表現とデータセット固有の分類信頼度を関連付けるように訓練される。
実験により、TabPTMは、数ショットのシナリオであっても、新しいデータセットで有望なパフォーマンスを達成することを確認した。
論文 参考訳(メタデータ) (2023-10-31T18:03:54Z) - infoVerse: A Universal Framework for Dataset Characterization with
Multidimensional Meta-information [68.76707843019886]
infoVerseは、データセットの特徴付けのための普遍的なフレームワークである。
infoVerseは、様々なモデル駆動メタ情報を統合することで、データセットの多次元特性をキャプチャする。
実世界の3つのアプリケーション(データプルーニング、アクティブラーニング、データアノテーション)において、infoVerse空間で選択されたサンプルは、強いベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-30T18:12:48Z) - DIWIFT: Discovering Instance-wise Influential Features for Tabular Data [29.69737486124891]
タブラルデータ(Tabular data)は、小売、銀行、Eコマースなど、ビジネスアプリケーションにおいて最も一般的なデータストレージフォーマットの1つである。
表表データの学習における重要な問題の1つは、影響のある特徴と所定の特徴とを区別することである。
表型データ(DIWIFT)のインスタンス単位に影響を及ぼす特徴を発見するための新しい手法を提案する。
本手法は,検証セットの検証損失を最小限に抑え,トレーニングデータセットやテストデータセットに存在する分散シフトに対してより堅牢である。
論文 参考訳(メタデータ) (2022-07-06T16:07:46Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Beyond Importance Scores: Interpreting Tabular ML by Visualizing Feature
Semantics [17.410093908967976]
機械学習(ML)モデルが批判的な意思決定に広く利用されているため、解釈可能性(interpretability)は活発な研究トピックになりつつある。
表データに使われている既存の解釈可能性の手法の多くは、特徴重要点のみを報告している。
我々は,新しいグローバル解釈可能性法であるFeature Vectorsを導入することで,この制限に対処する。
論文 参考訳(メタデータ) (2021-11-10T19:42:33Z) - SubTab: Subsetting Features of Tabular Data for Self-Supervised
Representation Learning [5.5616364225463055]
私たちはTabular Data(SubTab)のサブセット機能である新しいフレームワークを紹介します。
本稿では,タブラルデータ(SubTab)のサブセット機能である新しいフレームワークを提案する。
我々は、自動エンコーダ設定で、その機能の一部分からデータを再構成することで、その基盤となる表現をよりよく捉えることができると論じている。
論文 参考訳(メタデータ) (2021-10-08T20:11:09Z) - Feature Weighted Non-negative Matrix Factorization [92.45013716097753]
本稿では,FNMF(Feature weighted Non- negative Matrix Factorization)を提案する。
FNMFはその重要性に応じて特徴の重みを適応的に学習する。
提案する最適化アルゴリズムを用いて効率的に解くことができる。
論文 参考訳(メタデータ) (2021-03-24T21:17:17Z) - Invariant Integration in Deep Convolutional Feature Space [77.99182201815763]
より深いニューラルネットワークアーキテクチャに事前知識を原則的に組み込む方法を示す。
本稿では,Rotated-MNISTデータセットの最先端性能について報告する。
論文 参考訳(メタデータ) (2020-04-20T09:45:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。