論文の概要: TabPFN: A Transformer That Solves Small Tabular Classification Problems
in a Second
- arxiv url: http://arxiv.org/abs/2207.01848v6
- Date: Sat, 16 Sep 2023 09:33:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 01:40:58.990983
- Title: TabPFN: A Transformer That Solves Small Tabular Classification Problems
in a Second
- Title(参考訳): tabpfn:小さな表の分類問題を1秒で解決するトランスフォーマー
- Authors: Noah Hollmann, Samuel M\"uller, Katharina Eggensperger, Frank Hutter
- Abstract要約: トレーニングされたトランスフォーマーであるTabPFNは、小さなデータセットの教師付き分類を1秒以内で行うことができる。
TabPFNはコンテキスト内学習(ICL)を行い、ラベル付きサンプルのシーケンスを使用して予測を行う。
提案手法は, 強化木よりも明らかに優れており, 230$times$ Speedupの複雑なAutoMLシステムと同等性能を示す。
- 参考スコア(独自算出の注目度): 48.87527918630822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present TabPFN, a trained Transformer that can do supervised
classification for small tabular datasets in less than a second, needs no
hyperparameter tuning and is competitive with state-of-the-art classification
methods. TabPFN performs in-context learning (ICL), it learns to make
predictions using sequences of labeled examples (x, f(x)) given in the input,
without requiring further parameter updates. TabPFN is fully entailed in the
weights of our network, which accepts training and test samples as a set-valued
input and yields predictions for the entire test set in a single forward pass.
TabPFN is a Prior-Data Fitted Network (PFN) and is trained offline once, to
approximate Bayesian inference on synthetic datasets drawn from our prior. This
prior incorporates ideas from causal reasoning: It entails a large space of
structural causal models with a preference for simple structures. On the 18
datasets in the OpenML-CC18 suite that contain up to 1 000 training data
points, up to 100 purely numerical features without missing values, and up to
10 classes, we show that our method clearly outperforms boosted trees and
performs on par with complex state-of-the-art AutoML systems with up to
230$\times$ speedup. This increases to a 5 700$\times$ speedup when using a
GPU. We also validate these results on an additional 67 small numerical
datasets from OpenML. We provide all our code, the trained TabPFN, an
interactive browser demo and a Colab notebook at
https://github.com/automl/TabPFN.
- Abstract(参考訳): 我々は,少量の表型データセットの教師付き分類を1秒未満で実行し,ハイパーパラメータチューニングを必要とせず,最先端の分類手法と競合するトレーニングされたトランスフォーマであるtabpfnを提案する。
TabPFNはインコンテキスト学習(ICL)を行い、追加のパラメータ更新を必要とせずにラベル付き例(x, f(x))のシーケンスを用いて予測を行う。
tabpfnは、トレーニングとテストサンプルをセット値入力として受け入れ、1回のフォワードパスでテストセット全体の予測を行うネットワークの重みに完全に関係しています。
TabPFNはPFN(Presideed-Data Fitted Network)で、オフラインで1度トレーニングされ、ベイジアン推論を事前の合成データセットに近似する。
これは、単純な構造を好む構造的因果モデルの大きな空間を伴っている。
最大10000のトレーニングデータポイントを含む18のデータセット、100までの純粋に数値的な特徴を欠いた100の値、最大10のクラスにおいて、本手法がブーストツリーよりも明らかに優れ、最大230$\times$速度アップの複雑なautomlシステムと同等のパフォーマンスを示す。
これにより、GPUを使用すると5700$\times$スピードアップになる。
また、これらの結果をOpenMLから67個の小さな数値データセットで検証する。
すべてのコード、トレーニング済みのTabPFN、インタラクティブなブラウザデモ、Colabノートブックをhttps://github.com/automl/TabPFNで提供しています。
関連論文リスト
- Filter Pruning for Efficient CNNs via Knowledge-driven Differential
Filter Sampler [103.97487121678276]
フィルタプルーニングは同時に計算を加速し、CNNのメモリオーバーヘッドを低減する。
本稿では,MFM(Masked Filter Modeling)フレームワークを用いた知識駆動型微分フィルタサンプリング(KDFS)を提案する。
論文 参考訳(メタデータ) (2023-07-01T02:28:41Z) - HyperTab: Hypernetwork Approach for Deep Learning on Small Tabular
Datasets [3.9870413777302027]
データセット上の小さなサンプル問題を解決するためのハイパーネットワークベースのアプローチであるHyperTabを紹介する。
ランダムフォレストとニューラルネットワークの利点を組み合わせることで、HyperTabはニューラルネットワークのアンサンブルを生成する。
私たちは、HyperTabが小さなデータで他のメソッドを一貫して上回り、より大きなデータセットでそれと同等のスコアを示します。
論文 参考訳(メタデータ) (2023-04-07T08:48:07Z) - TabRet: Pre-training Transformer-based Tabular Models for Unseen Columns [12.139158398361866]
TabRetは、事前トレーニングで見えない列を含む下流タスクで動作するように設計されている。
実験では、TabRetを多数の公衆衛生調査で事前訓練し、医療における分類タスクを微調整した。
さらに,プレトレーニング中のカラムの再起動およびランダムシャッフル増大が,性能向上に寄与することを示した。
論文 参考訳(メタデータ) (2023-03-28T06:03:41Z) - Transformers Can Do Bayesian Inference [28.936428431504165]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模な機械学習技術を利用して、大規模な後部集合を近似する。
我々はPFNがガウス過程をほぼ完璧に模倣できることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - DANets: Deep Abstract Networks for Tabular Data Classification and
Regression [9.295859461145783]
Abstract Layer (AbstLay)は、相関的な入力機能を明示的にグループ化し、セマンティクスの抽象化のための高レベルな機能を生成する。
表形式のデータ分類と回帰のためのDeep Abstract Networks (DANets) のファミリー。
論文 参考訳(メタデータ) (2021-12-06T12:15:28Z) - Benchmarking Multimodal AutoML for Tabular Data with Text Fields [83.43249184357053]
テキストフィールドを含む18個のマルチモーダルデータテーブルを組み立てる。
このベンチマークにより、研究者は、数値的、分類的、テキスト的特徴を用いて教師あり学習を行うための独自の方法を評価することができる。
論文 参考訳(メタデータ) (2021-11-04T09:29:16Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z) - Fast, Accurate, and Simple Models for Tabular Data via Augmented
Distillation [97.42894942391575]
本研究では、FAST-DADを用いて、任意の複雑なアンサンブル予測を、高木、無作為林、深層ネットワークなどの個々のモデルに抽出する。
我々の個々の蒸留モデルは、H2O/AutoSklearnのようなAutoMLツールが生成するアンサンブル予測よりも10倍高速で精度が高い。
論文 参考訳(メタデータ) (2020-06-25T09:57:47Z) - OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer [77.90012156266324]
本稿では,ニューラルネットワークのサブスペースを見つけることを目的としている。
そこで本研究では,Orthogonal Softmax Layer (OSL) を提案する。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に用いた手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-20T02:41:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。