論文の概要: TabDeco: A Comprehensive Contrastive Framework for Decoupled Representations in Tabular Data
- arxiv url: http://arxiv.org/abs/2411.11148v1
- Date: Sun, 17 Nov 2024 18:42:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:35:09.329676
- Title: TabDeco: A Comprehensive Contrastive Framework for Decoupled Representations in Tabular Data
- Title(参考訳): TabDeco: 語彙データの非結合表現のための包括的コントラストフレームワーク
- Authors: Suiyao Chen, Jing Wu, Yunxiao Wang, Cheng Ji, Tianpei Xie, Daniel Cociorva, Michael Sharps, Cecile Levasseur, Hakan Brunzell,
- Abstract要約: 本研究では,行と列をまたいだアテンションベースの符号化手法であるTabDecoを紹介する。
革新的な機能の分離によって、TabDecoは既存のディープラーニングメソッドを一貫して上回っている。
- 参考スコア(独自算出の注目度): 5.98480077860174
- License:
- Abstract: Representation learning is a fundamental aspect of modern artificial intelligence, driving substantial improvements across diverse applications. While selfsupervised contrastive learning has led to significant advancements in fields like computer vision and natural language processing, its adaptation to tabular data presents unique challenges. Traditional approaches often prioritize optimizing model architecture and loss functions but may overlook the crucial task of constructing meaningful positive and negative sample pairs from various perspectives like feature interactions, instance-level patterns and batch-specific contexts. To address these challenges, we introduce TabDeco, a novel method that leverages attention-based encoding strategies across both rows and columns and employs contrastive learning framework to effectively disentangle feature representations at multiple levels, including features, instances and data batches. With the innovative feature decoupling hierarchies, TabDeco consistently surpasses existing deep learning methods and leading gradient boosting algorithms, including XG-Boost, CatBoost, and LightGBM, across various benchmark tasks, underscoring its effectiveness in advancing tabular data representation learning.
- Abstract(参考訳): 表現学習は現代の人工知能の基本的な側面であり、多様なアプリケーションで大幅に改善されている。
自己教師付きコントラスト学習はコンピュータビジョンや自然言語処理などの分野において大きな進歩をもたらしたが、表データへの適応は独特な課題を呈している。
従来のアプローチでは、モデルアーキテクチャと損失関数の最適化を優先することが多いが、機能相互作用、インスタンスレベルのパターン、バッチ固有のコンテキストなど、さまざまな観点から有意義な正と負のサンプルペアを構築するという重要なタスクを見落としてしまうことがある。
これらの課題に対処するために,TabDecoという,行と列の双方にわたる注目に基づく符号化戦略を活用する新しい手法を導入し,対照的な学習フレームワークを用いて,特徴,インスタンス,データバッチを含む複数のレベルで特徴表現を効果的にアンタングルする手法を提案する。
革新的な機能分離によって、TabDecoは既存のディープラーニングメソッドを一貫して超え、XG-Boost、CatBoost、LightGBMといったグラデーション向上アルゴリズムを様々なベンチマークタスクにわたって上回り、表型データ表現学習の進歩におけるその効果を強調している。
関連論文リスト
- TabSeq: A Framework for Deep Learning on Tabular Data via Sequential Ordering [5.946579489162407]
この作業では、機能のシーケンシャルな順序付けのための新しいフレームワークであるTabSeqを紹介している。
このような機能の最適なシーケンス順序を見つけることで、ディープラーニングモデルの学習プロセスを改善することができる。
論文 参考訳(メタデータ) (2024-10-17T04:10:36Z) - Flex: End-to-End Text-Instructed Visual Navigation with Foundation Models [59.892436892964376]
本稿では,視覚に基づく制御ポリシを用いて,ロバストな閉ループ性能を実現するために必要な最小限のデータ要件とアーキテクチャ適応について検討する。
この知見はFlex (Fly-lexically) で合成され,VLM(Vision Language Models) をフリーズしたパッチワイド特徴抽出器として利用するフレームワークである。
本研究では,本手法が4段階のフライ・トゥ・ターゲットタスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2024-10-16T19:59:31Z) - Scalable Representation Learning for Multimodal Tabular Transactions [14.18267117657451]
これらの課題に対して、革新的でスケーラブルなソリューションを提示します。
トランザクションとテキストのモダリティをインターリーブするパラメータ効率の良いデコーダを提案する。
我々は,大規模な合成決済トランザクションデータセット上でのソリューションの有効性を検証した。
論文 参考訳(メタデータ) (2024-10-10T12:18:42Z) - Discriminative Anchor Learning for Efficient Multi-view Clustering [59.11406089896875]
マルチビュークラスタリング(DALMC)のための識別的アンカー学習を提案する。
元のデータセットに基づいて、識別的なビュー固有の特徴表現を学習する。
これらの表現に基づいて異なるビューからアンカーを構築することで、共有アンカーグラフの品質が向上します。
論文 参考訳(メタデータ) (2024-09-25T13:11:17Z) - SwitchTab: Switched Autoencoders Are Effective Tabular Learners [16.316153704284936]
グラフデータに対する自己教師付き表現手法であるSwitchTabを紹介する。
SwitchTabは、データペア間の相互および正常な機能を分離することで、潜伏した依存関係をキャプチャする。
その結果、微調整によるエンドツーエンド予測タスクにおいて、優れた性能を示した。
そこで我々は,SwitchTabが相互に疎結合で有意な特徴を可視化することで,説明可能な表現を生成する能力を強調した。
論文 参考訳(メタデータ) (2024-01-04T01:05:45Z) - ReConTab: Regularized Contrastive Representation Learning for Tabular
Data [8.178223284255791]
コントラスト学習を正規化した深層自動表現学習フレームワークReConTabを紹介する。
ReConTabは、どんな種類のモデリングタスクにも依存せず、モデル入力から同じ生のフィーチャに基づいて非対称のオートエンコーダを構築する。
大規模な実世界のデータセットで実施された実験は、フレームワークのキャパシティを裏付け、実質的でロバストなパフォーマンス改善をもたらす。
論文 参考訳(メタデータ) (2023-10-28T00:05:28Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Dual Path Structural Contrastive Embeddings for Learning Novel Objects [6.979491536753043]
近年の研究では、優れた特徴空間の情報を取得することが、少数のタスクにおいて良好なパフォーマンスを達成するための効果的な解決法であることが示されている。
特徴表現と分類器を学習するタスクを分離する,単純だが効果的なパラダイムを提案する。
提案手法は, インダクティブ推論とトランスダクティブ推論のいずれにおいても, 標準および一般化された少数ショット問題に対して有望な結果が得られる。
論文 参考訳(メタデータ) (2021-12-23T04:43:31Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。