論文の概要: TablEye: Seeing small Tables through the Lens of Images
- arxiv url: http://arxiv.org/abs/2307.02491v1
- Date: Tue, 4 Jul 2023 02:45:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 16:52:48.592556
- Title: TablEye: Seeing small Tables through the Lens of Images
- Title(参考訳): tableye: 画像のレンズを通して小さなテーブルを見る
- Authors: Seung-eon Lee and Sang-Chul Lee
- Abstract要約: ドメイン変換を採用することにより、表データの事前知識形成の限界を克服することを目的とした、TablEyeと呼ばれる革新的なフレームワークを提案する。
このアプローチは、厳密にテストされた数発の学習アルゴリズムと埋め込み関数を利用して、事前の知識を取得し、適用する。
TalEyeはTabLLMを最大0.11AUCとSTUNTの4ショットタスクで上回り、1ショット設定で平均3.17%の精度で性能を発揮した。
- 参考スコア(独自算出の注目度): 1.4398570436349933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The exploration of few-shot tabular learning becomes imperative. Tabular data
is a versatile representation that captures diverse information, yet it is not
exempt from limitations, property of data and model size. Labeling extensive
tabular data can be challenging, and it may not be feasible to capture every
important feature. Few-shot tabular learning, however, remains relatively
unexplored, primarily due to scarcity of shared information among independent
datasets and the inherent ambiguity in defining boundaries within tabular data.
To the best of our knowledge, no meaningful and unrestricted few-shot tabular
learning techniques have been developed without imposing constraints on the
dataset. In this paper, we propose an innovative framework called TablEye,
which aims to overcome the limit of forming prior knowledge for tabular data by
adopting domain transformation. It facilitates domain transformation by
generating tabular images, which effectively conserve the intrinsic semantics
of the original tabular data. This approach harnesses rigorously tested
few-shot learning algorithms and embedding functions to acquire and apply prior
knowledge. Leveraging shared data domains allows us to utilize this prior
knowledge, originally learned from the image domain. Specifically, TablEye
demonstrated a superior performance by outstripping the TabLLM in a 4-shot task
with a maximum 0.11 AUC and a STUNT in a 1- shot setting, where it led on
average by 3.17% accuracy.
- Abstract(参考訳): 少人数の表学習の探求が不可欠になる。
タブラルデータ(Tabular data)は、多様な情報をキャプチャする汎用表現であるが、制限やデータの特性、モデルのサイズは除外されない。
広範な表データのラベル付けは困難であり、すべての重要な機能をキャプチャすることは不可能である。
しかし、独立データセット間の共有情報の不足と、表データ内の境界を定義する固有の曖昧さが原因で、比較的未熟なままである。
我々の知る限りでは、データセットに制約を課すことなく有意義で制約のない数発の表型学習技術は開発されていない。
本稿では,表型データに対する事前知識形成の限界を克服し,ドメイン変換を取り入れたTablEyeという革新的なフレームワークを提案する。
表画像を生成してドメイン変換を容易にすることで、元の表データの本質的なセマンティクスを効果的に保存する。
このアプローチは、厳密にテストされた少数の学習アルゴリズムと埋め込み関数を利用して、事前知識を取得し、適用する。
共有データドメインを利用することで、イメージドメインから学習したこの事前知識を活用できます。
具体的には、TablEyeはTabLLMを最大0.11AUCとSTUNTの4ショットタスクで上回り、1ショット設定で平均3.17%の精度で性能を発揮した。
関連論文リスト
- TIP: Tabular-Image Pre-training for Multimodal Classification with Incomplete Data [6.414759311130015]
不完全なデータに頑健なマルチモーダル表現を学習するための新しいフレームワークであるTIPを提案する。
具体的には、TIPは、データ不足に対処するためのマスク付き再構築タスクを含む、自己教師付き学習(SSL)戦略を調査する。
TIPは、完全なデータシナリオと不完全なデータシナリオの両方において、最先端の教師付き/SSLイメージ/マルチモーダルアルゴリズムより優れている。
論文 参考訳(メタデータ) (2024-07-10T12:16:15Z) - LaTable: Towards Large Tabular Models [63.995130144110156]
タブラル生成基盤モデルは、異なるデータセットの不均一な特徴空間のために構築が困難である。
LaTableは、これらの課題に対処し、異なるデータセットでトレーニング可能な、新しい拡散モデルである。
LaTableは、分散生成のベースラインよりも優れており、微調整されたLaTableは、より少ないサンプルで分散データセットをより良く生成できる。
論文 参考訳(メタデータ) (2024-06-25T16:03:50Z) - Making Pre-trained Language Models Great on Tabular Prediction [50.70574370855663]
ディープニューラルネットワーク(DNN)の転送性は、画像および言語処理において著しく進歩している。
本稿では,表型データ予測のための訓練済みLMであるTP-BERTaを提案する。
新たな相対等級トークン化では、スカラー数値の特徴値を細分化した高次元トークンに変換し、特徴値と対応する特徴名を統合する。
論文 参考訳(メタデータ) (2024-03-04T08:38:56Z) - Tabular Few-Shot Generalization Across Heterogeneous Feature Spaces [43.67453625260335]
異種特徴空間を持つデータセット間での知識共有を含む数ショット学習のための新しいアプローチを提案する。
FLATはデータセットとその個々の列の低次元埋め込みを学習し、それまで見つからなかったデータセットへの知識伝達と一般化を容易にする。
デコーダネットワークは、グラフ注意ネットワークとして実装された予測対象ネットワークをパラメータ化して、表形式のデータセットの不均一性に対応する。
論文 参考訳(メタデータ) (2023-11-16T17:45:59Z) - Training-Free Generalization on Heterogeneous Tabular Data via
Meta-Representation [67.30538142519067]
メタ表現(TabPTM)を用いたタブラルデータ事前学習を提案する。
深層ニューラルネットワークは、これらのメタ表現とデータセット固有の分類信頼度を関連付けるように訓練される。
実験により、TabPTMは、数ショットのシナリオであっても、新しいデータセットで有望なパフォーマンスを達成することを確認した。
論文 参考訳(メタデータ) (2023-10-31T18:03:54Z) - Learning Representations without Compositional Assumptions [79.12273403390311]
本稿では,特徴集合をグラフノードとして表現し,それらの関係を学習可能なエッジとして表現することで,特徴集合の依存関係を学習するデータ駆動型アプローチを提案する。
また,複数のビューから情報を動的に集約するために,より小さな潜在グラフを学習する新しい階層グラフオートエンコーダLEGATOを導入する。
論文 参考訳(メタデータ) (2023-05-31T10:36:10Z) - STUNT: Few-shot Tabular Learning with Self-generated Tasks from
Unlabeled Tables [64.0903766169603]
我々は,Unlabeled Tables (STUNT) からの自己生成タスクを作成した,数発のセミ教師付き学習のためのフレームワークを提案する。
私たちのキーとなるアイデアは、ランダムに選択された列をターゲットラベルとして扱うことで、多様なショットタスクを自己生成することです。
次に、メタラーニング手法を用いて、構築されたタスクで一般化可能な知識を学習する。
論文 参考訳(メタデータ) (2023-03-02T02:37:54Z) - Progressive Feature Upgrade in Semi-supervised Learning on Tabular
Domain [0.0]
最近の半監督的・自己監督的手法は画像領域とテキスト領域において大きな成功を収めている。
異なるデータ型が混在しているため、画像や言語から表データへのドメイン固有の変換を適応するのは容易ではない。
条件付き確率表現と,効率的な機能アップグレードフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-01T22:18:32Z) - SubTab: Subsetting Features of Tabular Data for Self-Supervised
Representation Learning [5.5616364225463055]
私たちはTabular Data(SubTab)のサブセット機能である新しいフレームワークを紹介します。
本稿では,タブラルデータ(SubTab)のサブセット機能である新しいフレームワークを提案する。
我々は、自動エンコーダ設定で、その機能の一部分からデータを再構成することで、その基盤となる表現をよりよく捉えることができると論じている。
論文 参考訳(メタデータ) (2021-10-08T20:11:09Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。