論文の概要: nanoTabPFN: A Lightweight and Educational Reimplementation of TabPFN
- arxiv url: http://arxiv.org/abs/2511.03634v1
- Date: Wed, 05 Nov 2025 16:52:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.495476
- Title: nanoTabPFN: A Lightweight and Educational Reimplementation of TabPFN
- Title(参考訳): NanoTabPFN:TabPFNの軽量で教育的な再実装
- Authors: Alexander Pfefferle, Johannes Hog, Lennart Purucker, Frank Hutter,
- Abstract要約: NanoTabPFNはTabPFN v2アーキテクチャとそれに対応するトレーニングループの軽量実装である。
1つのGPUでの事前トレーニングから1分以内に、従来の機械学習ベースラインに匹敵するパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 78.62756717376563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tabular foundation models such as TabPFN have revolutionized predictive machine learning for tabular data. At the same time, the driving factors of this revolution are hard to understand. Existing open-source tabular foundation models are implemented in complicated pipelines boasting over 10,000 lines of code, lack architecture documentation or code quality. In short, the implementations are hard to understand, not beginner-friendly, and complicated to adapt for new experiments. We introduce nanoTabPFN, a simplified and lightweight implementation of the TabPFN v2 architecture and a corresponding training loop that uses pre-generated training data. nanoTabPFN makes tabular foundation models more accessible to students and researchers alike. For example, restricted to a small data setting it achieves a performance comparable to traditional machine learning baselines within one minute of pre-training on a single GPU (160,000x faster than TabPFN v2 pretraining). This eliminated requirement of large computational resources makes pre-training tabular foundation models accessible for educational purposes. Our code is available at https://github.com/automl/nanoTabPFN.
- Abstract(参考訳): TabPFNのようなタブラル基礎モデルは、表データに対する予測機械学習に革命をもたらした。
同時に、この革命の要因を理解するのは難しい。
既存のオープンソースのタブ形式の基盤モデルは、10,000行以上のコードを持つ複雑なパイプラインで実装されており、アーキテクチャドキュメントやコード品質が欠如している。
要するに、実装は理解が難しく、初心者に優しいものではなく、新しい実験に適応するのに複雑である。
本稿では,TabPFN v2アーキテクチャのシンプルで軽量な実装であるnanoTabPFNと,事前生成したトレーニングデータを用いたトレーニングループを紹介する。
NanoTabPFNは、学生や研究者にも、表形式の基礎モデルを提供する。
例えば、小さなデータセットに制限されて、単一のGPU(TabPFN v2の事前トレーニングよりも160,000倍高速)で1分以内に、従来の機械学習ベースラインに匹敵するパフォーマンスを達成する。
これにより、大量の計算資源の必要がなくなり、教育目的のために事前学習された表層基礎モデルが利用できるようになる。
私たちのコードはhttps://github.com/automl/nanoTabPFN.orgで利用可能です。
関連論文リスト
- Chunked TabPFN: Exact Training-Free In-Context Learning for Long-Context Tabular Data [2.2682391370097794]
本稿では,TabPFNフレームワーク内での注目度を計算するためのタイルブロック戦略を提案する。
この設計は標準のGPUセットアップと互換性がある。
標準TabArenaベンチマークにおいて,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2025-08-30T02:57:01Z) - TabPFN: One Model to Rule Them All? [21.658323618943697]
統計利用者に対して,TabPFNがどのように機能するかを整理した説明を提供する。
本稿では,TabPFNのアウト・オブ・ザ・ボックス適用が,最先端の特殊な手法よりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2025-05-26T13:55:29Z) - Tokenize features, enhancing tables: the FT-TABPFN model for tabular classification [13.481699494376809]
FT-TabPFNはTabPFNの拡張版で、分類機能をよりよく扱うための新しい機能トークン化レイヤを含んでいる。
私たちの完全なソースコードは、コミュニティの利用と開発に利用可能です。
論文 参考訳(メタデータ) (2024-06-11T02:13:46Z) - TuneTables: Context Optimization for Scalable Prior-Data Fitted Networks [90.00817095558094]
事前データ対応ネットワーク(PFN)は、事前学習とコンテキスト内学習を利用して、1つのフォワードパスで新しいタスクの強力なパフォーマンスを実現する。
我々は、大規模なデータセットをより小さな学習コンテキストに圧縮するPFNのパラメータ効率の良い微調整戦略であるTuneTablesを紹介した。
我々は、TuneTablesを解釈可能性ツールとして使用することができ、公平性目標を最適化することでバイアスを軽減することができることを示した。
論文 参考訳(メタデータ) (2024-02-17T00:02:23Z) - Generative Table Pre-training Empowers Models for Tabular Prediction [71.76829961276032]
本稿では,テーブル事前学習を利用した最初の試みであるTapTapを提案する。
TapTapは、プライバシ保護、リソースの低さ、価値計算の欠如、不均衡な分類など、さまざまなアプリケーションをサポートするための高品質な合成テーブルを生成することができる。
LightGBM、Multilayer Perceptron (MLP)、Transformerなどのバックボーンモデルと簡単に組み合わせることができる。
論文 参考訳(メタデータ) (2023-05-16T06:37:38Z) - TabPFN: A Transformer That Solves Small Tabular Classification Problems
in a Second [48.87527918630822]
トレーニングされたトランスフォーマーであるTabPFNは、小さなデータセットの教師付き分類を1秒以内で行うことができる。
TabPFNはコンテキスト内学習(ICL)を行い、ラベル付きサンプルのシーケンスを使用して予測を行う。
提案手法は, 強化木よりも明らかに優れており, 230$times$ Speedupの複雑なAutoMLシステムと同等性能を示す。
論文 参考訳(メタデータ) (2022-07-05T07:17:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。