論文の概要: TabDeco: A Comprehensive Contrastive Framework for Decoupled Representations in Tabular Data
- arxiv url: http://arxiv.org/abs/2411.11148v1
- Date: Sun, 17 Nov 2024 18:42:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:35:09.329676
- Title: TabDeco: A Comprehensive Contrastive Framework for Decoupled Representations in Tabular Data
- Title(参考訳): TabDeco: 語彙データの非結合表現のための包括的コントラストフレームワーク
- Authors: Suiyao Chen, Jing Wu, Yunxiao Wang, Cheng Ji, Tianpei Xie, Daniel Cociorva, Michael Sharps, Cecile Levasseur, Hakan Brunzell,
- Abstract要約: 本研究では,行と列をまたいだアテンションベースの符号化手法であるTabDecoを紹介する。
革新的な機能の分離によって、TabDecoは既存のディープラーニングメソッドを一貫して上回っている。
- 参考スコア(独自算出の注目度): 5.98480077860174
- License:
- Abstract: Representation learning is a fundamental aspect of modern artificial intelligence, driving substantial improvements across diverse applications. While selfsupervised contrastive learning has led to significant advancements in fields like computer vision and natural language processing, its adaptation to tabular data presents unique challenges. Traditional approaches often prioritize optimizing model architecture and loss functions but may overlook the crucial task of constructing meaningful positive and negative sample pairs from various perspectives like feature interactions, instance-level patterns and batch-specific contexts. To address these challenges, we introduce TabDeco, a novel method that leverages attention-based encoding strategies across both rows and columns and employs contrastive learning framework to effectively disentangle feature representations at multiple levels, including features, instances and data batches. With the innovative feature decoupling hierarchies, TabDeco consistently surpasses existing deep learning methods and leading gradient boosting algorithms, including XG-Boost, CatBoost, and LightGBM, across various benchmark tasks, underscoring its effectiveness in advancing tabular data representation learning.
- Abstract(参考訳): 表現学習は現代の人工知能の基本的な側面であり、多様なアプリケーションで大幅に改善されている。
自己教師付きコントラスト学習はコンピュータビジョンや自然言語処理などの分野において大きな進歩をもたらしたが、表データへの適応は独特な課題を呈している。
従来のアプローチでは、モデルアーキテクチャと損失関数の最適化を優先することが多いが、機能相互作用、インスタンスレベルのパターン、バッチ固有のコンテキストなど、さまざまな観点から有意義な正と負のサンプルペアを構築するという重要なタスクを見落としてしまうことがある。
これらの課題に対処するために,TabDecoという,行と列の双方にわたる注目に基づく符号化戦略を活用する新しい手法を導入し,対照的な学習フレームワークを用いて,特徴,インスタンス,データバッチを含む複数のレベルで特徴表現を効果的にアンタングルする手法を提案する。
革新的な機能分離によって、TabDecoは既存のディープラーニングメソッドを一貫して超え、XG-Boost、CatBoost、LightGBMといったグラデーション向上アルゴリズムを様々なベンチマークタスクにわたって上回り、表型データ表現学習の進歩におけるその効果を強調している。
関連論文リスト
- A Simple Graph Contrastive Learning Framework for Short Text Classification [23.36436403062214]
短文分類のための簡易グラフコントラスト学習フレームワーク(SimSTC)を提案する。
本手法は,マルチビュー・コントラッシブ・ラーニングの利点を生かしながら,コントラスト・ビューを生成するためのデータ拡張操作を不要とする。
その単純さにもかかわらず、我々のモデルは優れた性能を達成し、様々なデータセット上の大きな言語モデルを上回っている。
論文 参考訳(メタデータ) (2025-01-16T00:35:56Z) - Multi-Label Contrastive Learning : A Comprehensive Study [48.81069245141415]
マルチラベルの分類は、研究と産業の両方において重要な領域として現れてきた。
対照的な学習をマルチラベル分類に適用することは、ユニークな課題である。
多様な環境における多ラベル分類のためのコントラスト学習損失の詳細な研究を行う。
論文 参考訳(メタデータ) (2024-11-27T20:20:06Z) - TabSeq: A Framework for Deep Learning on Tabular Data via Sequential Ordering [5.946579489162407]
この作業では、機能のシーケンシャルな順序付けのための新しいフレームワークであるTabSeqを紹介している。
このような機能の最適なシーケンス順序を見つけることで、ディープラーニングモデルの学習プロセスを改善することができる。
論文 参考訳(メタデータ) (2024-10-17T04:10:36Z) - Flex: End-to-End Text-Instructed Visual Navigation with Foundation Models [59.892436892964376]
本稿では,視覚に基づく制御ポリシを用いて,ロバストな閉ループ性能を実現するために必要な最小限のデータ要件とアーキテクチャ適応について検討する。
この知見はFlex (Fly-lexically) で合成され,VLM(Vision Language Models) をフリーズしたパッチワイド特徴抽出器として利用するフレームワークである。
本研究では,本手法が4段階のフライ・トゥ・ターゲットタスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2024-10-16T19:59:31Z) - Enhancing Graph Contrastive Learning with Reliable and Informative Augmentation for Recommendation [84.45144851024257]
離散コードによるより強力な協調情報を用いて、コントラスト的なビューを構築することにより、グラフのコントラスト学習を強化することを目的とした、新しいフレームワークを提案する。
中心となる考え方は、ユーザとアイテムを協調情報に富んだ離散コードにマッピングし、信頼性と情報に富んだコントラッシブなビュー生成を可能にすることである。
論文 参考訳(メタデータ) (2024-09-09T14:04:17Z) - SwitchTab: Switched Autoencoders Are Effective Tabular Learners [16.316153704284936]
グラフデータに対する自己教師付き表現手法であるSwitchTabを紹介する。
SwitchTabは、データペア間の相互および正常な機能を分離することで、潜伏した依存関係をキャプチャする。
その結果、微調整によるエンドツーエンド予測タスクにおいて、優れた性能を示した。
そこで我々は,SwitchTabが相互に疎結合で有意な特徴を可視化することで,説明可能な表現を生成する能力を強調した。
論文 参考訳(メタデータ) (2024-01-04T01:05:45Z) - ReConTab: Regularized Contrastive Representation Learning for Tabular
Data [8.178223284255791]
コントラスト学習を正規化した深層自動表現学習フレームワークReConTabを紹介する。
ReConTabは、どんな種類のモデリングタスクにも依存せず、モデル入力から同じ生のフィーチャに基づいて非対称のオートエンコーダを構築する。
大規模な実世界のデータセットで実施された実験は、フレームワークのキャパシティを裏付け、実質的でロバストなパフォーマンス改善をもたらす。
論文 参考訳(メタデータ) (2023-10-28T00:05:28Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。