論文の概要: TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation Models
- arxiv url: http://arxiv.org/abs/2511.02802v2
- Date: Wed, 05 Nov 2025 17:36:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 13:56:26.201103
- Title: TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation Models
- Title(参考訳): TabTune: 推論と微調整のための統一ライブラリ
- Authors: Aditya Tanna, Pratinav Seth, Mohamed Bouadi, Utsav Avaiya, Vinay Kumar Sankarapu,
- Abstract要約: タブラル基礎モデルは、構造化データ学習における成長するパラダイムを表している。
単一インタフェースで表層基礎モデルの完全なワークフローを標準化する統合ライブラリであるTabTuneを紹介する。
- 参考スコア(独自算出の注目度): 3.6210754412846318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tabular foundation models represent a growing paradigm in structured data learning, extending the benefits of large-scale pretraining to tabular domains. However, their adoption remains limited due to heterogeneous preprocessing pipelines, fragmented APIs, inconsistent fine-tuning procedures, and the absence of standardized evaluation for deployment-oriented metrics such as calibration and fairness. We present TabTune, a unified library that standardizes the complete workflow for tabular foundation models through a single interface. TabTune provides consistent access to seven state-of-the-art models supporting multiple adaptation strategies, including zero-shot inference, meta-learning, supervised fine-tuning (SFT), and parameter-efficient fine-tuning (PEFT). The framework automates model-aware preprocessing, manages architectural heterogeneity internally, and integrates evaluation modules for performance, calibration, and fairness. Designed for extensibility and reproducibility, TabTune enables consistent benchmarking of adaptation strategies of tabular foundation models.
- Abstract(参考訳): タブラル基礎モデルは構造化データ学習における成長パラダイムを表しており、大規模事前学習の恩恵を表ドメインに広げている。
しかし、不均一な前処理パイプライン、断片化されたAPI、一貫性のない微調整手順、キャリブレーションやフェアネスといったデプロイメント指向のメトリクスに対する標準化された評価がないため、採用は依然として限られている。
単一インタフェースで表層基礎モデルの完全なワークフローを標準化する統合ライブラリであるTabTuneを提示する。
TabTuneは、ゼロショット推論、メタラーニング、教師付き微調整(SFT)、パラメータ効率の良い微調整(PEFT)など、複数の適応戦略をサポートする7つの最先端モデルに一貫したアクセスを提供する。
このフレームワークは、モデル対応の事前処理を自動化し、内部でアーキテクチャの不均一性を管理し、パフォーマンス、キャリブレーション、公正性の評価モジュールを統合する。
TabTuneは拡張性と再現性のために設計されており、表層基礎モデルの適応戦略の一貫したベンチマークを可能にする。
関連論文リスト
- Tabular Foundation Models Can Learn Association Rules [3.3577668667253247]
本稿では,アソシエーションルールマイニングのためのモデルに依存しないアソシエーションルール学習フレームワークを提案する。
次に, TFMを条件付き確率推定器として利用するTabProbeを紹介した。
その結果,TFMは高い予測性能を有する簡潔で高品質なアソシエーションルールを一貫して生成することがわかった。
論文 参考訳(メタデータ) (2026-02-16T10:25:55Z) - An Integrated Fusion Framework for Ensemble Learning Leveraging Gradient Boosting and Fuzzy Rule-Based Models [59.13182819190547]
ファジィ規則に基づくモデルは解釈可能性に優れ、様々な分野に広く応用されている。
複雑な設計仕様や大規模データセットのスケーラビリティといった課題に直面している。
本稿では,モデル性能と解釈可能性を高めるために,両パラダイムの強みを融合した統合統合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T10:28:23Z) - TaTToo: Tool-Grounded Thinking PRM for Test-Time Scaling in Tabular Reasoning [77.01182934427095]
TaTTooは、ツールベースの検証を統合し、正確な報酬管理を提供する新しいテーブルグラウンドのPRMフレームワークである。
私たちはTTTooを2段階のパラダイムでトレーニングします。ツール使用推論パターンをキャプチャするために、コールドスタートの教師による微調整を行い、続いて強化学習を行い、私たちのモデルをテーブルベースの検証と整合させます。
論文 参考訳(メタデータ) (2025-10-07T17:59:41Z) - Estimating Time Series Foundation Model Transferability via In-Context Learning [74.65355820906355]
時系列基礎モデル(TSFM)は、大規模な事前訓練を通じて強力なゼロショット予測を提供する。
微調整は、公開データに制限のあるドメインのパフォーマンス向上に依然として不可欠である。
モデル選択をコンテキスト内学習問題として再キャストする転送可能性推定フレームワークであるTimeTicを紹介する。
論文 参考訳(メタデータ) (2025-09-28T07:07:13Z) - Structural Equation-VAE: Disentangled Latent Representations for Tabular Data [4.101599614979332]
可変オートエンコーダの設計に直接測定構造を組み込む新しいアーキテクチャであるSE-VAE(Structural Equation-Variational Autoencoder)を導入する。
構造方程式モデリングにインスパイアされたSE-VAEは、潜在部分空間を既知の指標群と整列させ、構造特異的な共役変異を分離するために大域的ニュアンスラデントを導入する。
SE-VAEは、係数回復、解釈可能性、およびニュアンス変動に対する堅牢性において、オルタナティブよりも一貫して優れている。
論文 参考訳(メタデータ) (2025-08-08T14:21:20Z) - Episode-specific Fine-tuning for Metric-based Few-shot Learners with Optimization-based Training [13.5196633635749]
メトリックベースのモデルは、クエリの類似性を計算し、学習されたメトリック空間内の埋め込みをサポートする。
ラベル付けされていないクエリサンプルの分類を支援するため、推論中にラベル付きサポートサンプルの小さなセットが提供される。
そこで本研究では,メトリックベースモデルに対して,単純なエピソード固有かつ効果的なインジェクションの微調整手法を提案する。
論文 参考訳(メタデータ) (2025-06-20T22:24:38Z) - On Finetuning Tabular Foundation Models [29.76586200178702]
TabPFNv2は、小規模データセット上の従来のGBDTベースのメソッドよりも優れたパフォーマンスを主張する。
多様なデータセットに対してTabPFNv2の様々な微調整戦略を評価する。
実験対象の問合せ表現の点生成物は, 勾配適応後, 目標の類似性をより正確に反映していることから, 微調整の成功が示唆された。
論文 参考訳(メタデータ) (2025-06-10T16:52:31Z) - Shadow-FT: Tuning Instruct Model via Training on Paired Base Model [67.20706292627106]
大規模言語モデル(LLM)は、様々なタスクのさらなる微調整の恩恵を一貫して受けている。
本稿では,対応するベースモデルを活用してインストラクタモデルをチューニングするための新しいシャドウ-FTフレームワークを提案する。
提案するShadow-FTは,追加パラメータを導入せず,実装が容易で,性能が大幅に向上する。
論文 参考訳(メタデータ) (2025-05-19T05:16:21Z) - TabDPT: Scaling Tabular Foundation Models on Real Data [20.00390825519329]
ICLに基づく検索と自己教師付き学習を組み合わせた基礎モデルの学習手法を提案する。
事前学習フェーズに実際のデータを組み込むことで、学習が大幅に速くなり、見当たらないデータへの一般化が向上することを示す。
得られたモデルであるTabDPTは回帰 (CTR23) と分類 (CC18) のベンチマークで最高の性能を達成する。
論文 参考訳(メタデータ) (2024-10-23T18:00:00Z) - Tokenize features, enhancing tables: the FT-TABPFN model for tabular classification [13.481699494376809]
FT-TabPFNはTabPFNの拡張版で、分類機能をよりよく扱うための新しい機能トークン化レイヤを含んでいる。
私たちの完全なソースコードは、コミュニティの利用と開発に利用可能です。
論文 参考訳(メタデータ) (2024-06-11T02:13:46Z) - Interpretable Machine Learning for TabPFN [5.012821694203072]
TabPFNモデルは、様々な分類タスクで最先端のパフォーマンスを達成することができる。
モデルのユニークな性質を利用することで、我々の適応はより効率的な計算を可能にします。
論文 参考訳(メタデータ) (2024-03-16T13:35:15Z) - Rethinking Pre-Training in Tabular Data: A Neighborhood Embedding Perspective [71.45945607871715]
メタ表現(TabPTM)を用いたタブラルデータ事前学習を提案する。
中心となる考え方は、データインスタンスを共有機能空間に埋め込むことで、各インスタンスは、近隣の固定数とそのラベルまでの距離で表現される。
101データセットの大規模な実験は、微調整の有無にかかわらず、分類タスクと回帰タスクの両方においてTabPTMの有効性を確認した。
論文 参考訳(メタデータ) (2023-10-31T18:03:54Z) - UniTabE: A Universal Pretraining Protocol for Tabular Foundation Model
in Data Science [16.384705926693073]
本研究は,データサイエンスにおける表上での予測を容易にするために,事前学習方法論の能力を拡張することを目的とする。
テーブルを一様に処理するために設計されたUniTabEは、特定のテーブル構造によって課される制約を無視する。
プレトレーニングフェーズを実装するため,Kaggleプラットフォームから正確に収集した約13Bサンプルからなる拡張データセットをキュレートした。
論文 参考訳(メタデータ) (2023-07-18T13:28:31Z) - Efficient GPT Model Pre-training using Tensor Train Matrix
Representation [65.96485282393361]
大規模なトランスフォーマーモデルは数十億のパラメータを特徴としており、デプロイが困難になり、スクラッチからトレーニングコストが禁じられている。
GPT-2アーキテクチャのパラメータ数を削減すべく、完全に接続された層の行列を対応するTrain Matrix(TTM)構造に置き換える。
GPTベースのモデルは最大40%のパラメータを格納し、元のモデルに匹敵するパープレキシティを示す。
論文 参考訳(メタデータ) (2023-06-05T08:38:25Z) - MediTab: Scaling Medical Tabular Data Predictors via Data Consolidation, Enrichment, and Refinement [44.693325083735424]
患者の健康リスク予測などの医療応用において,タブラルデータ予測が採用されている。
以前の予測子は、手動でキュレートされた小さなデータセットでトレーニングされることが多い。
論文 参考訳(メタデータ) (2023-05-20T03:37:09Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - TRUST: An Accurate and End-to-End Table structure Recognizer Using
Splitting-based Transformers [56.56591337457137]
本稿では,TRUSTと呼ばれるテーブル構造認識手法を提案する。
変換器は、大域的な計算、完全メモリ、並列計算のためにテーブル構造認識に適している。
我々はPubTabNetやSynthTableなど,いくつかの人気のあるベンチマークで実験を行い,新しい最先端の結果を得た。
論文 参考訳(メタデータ) (2022-08-31T08:33:36Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。