論文の概要: Tabular Foundation Models Can Learn Association Rules
- arxiv url: http://arxiv.org/abs/2602.14622v1
- Date: Mon, 16 Feb 2026 10:25:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.368991
- Title: Tabular Foundation Models Can Learn Association Rules
- Title(参考訳): タブラルファウンデーションモデルはアソシエーションルールを学習できる
- Authors: Erkan Karabulut, Daniel Daza, Paul Groth, Martijn C. Schut, Victoria Degeler,
- Abstract要約: 本稿では,アソシエーションルールマイニングのためのモデルに依存しないアソシエーションルール学習フレームワークを提案する。
次に, TFMを条件付き確率推定器として利用するTabProbeを紹介した。
その結果,TFMは高い予測性能を有する簡潔で高品質なアソシエーションルールを一貫して生成することがわかった。
- 参考スコア(独自算出の注目度): 3.3577668667253247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Association Rule Mining (ARM) is a fundamental task for knowledge discovery in tabular data and is widely used in high-stakes decision-making. Classical ARM methods rely on frequent itemset mining, leading to rule explosion and poor scalability, while recent neural approaches mitigate these issues but suffer from degraded performance in low-data regimes. Tabular foundation models (TFMs), pretrained on diverse tabular data with strong in-context generalization, provide a basis for addressing these limitations. We introduce a model-agnostic association rule learning framework that extracts association rules from any conditional probabilistic model over tabular data, enabling us to leverage TFMs. We then introduce TabProbe, an instantiation of our framework that utilizes TFMs as conditional probability estimators to learn association rules out-of-the-box without frequent itemset mining. We evaluate our approach on tabular datasets of varying sizes based on standard ARM rule quality metrics and downstream classification performance. The results show that TFMs consistently produce concise, high-quality association rules with strong predictive performance and remain robust in low-data settings without task-specific training. Source code is available at https://github.com/DiTEC-project/tabprobe.
- Abstract(参考訳): アソシエーションルールマイニング(ARM)は、表形式のデータにおける知識発見の基本的なタスクであり、高精度な意思決定に広く利用されている。
古典的なARM手法は頻繁なアイテムセットマイニングに依存しており、ルールの爆発とスケーラビリティの低下につながっている。
タブラル基礎モデル(TFM)は、コンテキスト内一般化の強い多様な表型データに基づいて事前訓練され、これらの制限に対処するための基盤を提供する。
本稿では,表データ上の条件付き確率モデルから関連ルールを抽出し,TFMを活用可能なモデル非依存型関連ルール学習フレームワークを提案する。
次にTabProbeを紹介した。TabProbeは、TFMを条件付き確率推定器として利用し、頻繁なアイテムマイニングを伴わずに関連ルールを学習するフレームワークである。
我々は、標準ARMルール品質指標と下流分類性能に基づいて、様々なサイズの表型データセットに対するアプローチを評価した。
その結果,TFMは高い予測性能を持つ簡潔で高品質なアソシエーションルールを一貫して生成し,タスク固有のトレーニングを伴わずに低データ設定で頑健であることがわかった。
ソースコードはhttps://github.com/DiTEC-project/tabprobe.comで入手できる。
関連論文リスト
- TabICLv2: A better, faster, scalable, and open tabular foundation model [18.594859017648346]
3つの柱上に構築された回帰と分類のための新しい最先端基盤モデルであるTabICLv2を紹介する。
Tabiclv2は、50GBのGPUメモリ下での百万規模のデータセットを効果的に一般化し、RealTabPFN-2.5よりも著しく高速である。
論文 参考訳(メタデータ) (2026-02-11T18:51:02Z) - TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation Models [3.6210754412846318]
タブラル基礎モデルは、構造化データ学習における成長するパラダイムを表している。
単一インタフェースで表層基礎モデルの完全なワークフローを標準化する統合ライブラリであるTabTuneを紹介する。
論文 参考訳(メタデータ) (2025-11-04T18:25:17Z) - Mitra: Mixed Synthetic Priors for Enhancing Tabular Foundation Models [85.64873567417396]
実世界のデータに対して,その多様性,特異性,および性能のために選択された合成前駆体の硬化した混合物をトレーニングしたTFMであるMitraを紹介する。
Mitraは、TabPFNv2やTabICLのような最先端のTFMを、分類と回帰のベンチマークで一貫して上回っている。
論文 参考訳(メタデータ) (2025-10-24T07:15:06Z) - TabINR: An Implicit Neural Representation Framework for Tabular Data Imputation [0.6407815281667869]
本稿では,テーブルをニューラルネットワークとしてモデル化する自動デコーダベースのImplicit Neural RepresentationフレームワークであるTabINRを紹介する。
我々は、現実世界の12のデータセットと複数の欠落メカニズムにまたがって、我々のフレームワークを評価した。
論文 参考訳(メタデータ) (2025-10-01T17:24:35Z) - Estimating Time Series Foundation Model Transferability via In-Context Learning [74.65355820906355]
時系列基礎モデル(TSFM)は、大規模な事前訓練を通じて強力なゼロショット予測を提供する。
微調整は、公開データに制限のあるドメインのパフォーマンス向上に依然として不可欠である。
モデル選択をコンテキスト内学習問題として再キャストする転送可能性推定フレームワークであるTimeTicを紹介する。
論文 参考訳(メタデータ) (2025-09-28T07:07:13Z) - SPaRFT: Self-Paced Reinforcement Fine-Tuning for Large Language Models [51.74498855100541]
大規模言語モデル(LLM)は、強化学習(RL)による微調整時に強い推論能力を示す。
トレーニング対象のモデルの性能に基づいて,効率的な学習を可能にする自己評価学習フレームワークである textbfSPaRFT を提案する。
論文 参考訳(メタデータ) (2025-08-07T03:50:48Z) - Make Still Further Progress: Chain of Thoughts for Tabular Data Leaderboard [27.224577475861214]
機械学習の基本的なデータフォーマットであるタブラルデータは、競争や現実世界のアプリケーションで主に利用されている。
本研究では,大規模言語モデルを活用したテキスト内アンサンブルフレームワークを提案する。
提案手法は,各テストインスタンスの周囲のコンテキストを,その近傍と外部モデルのプールからの予測を用いて構築する。
論文 参考訳(メタデータ) (2025-05-19T17:52:58Z) - TabDPT: Scaling Tabular Foundation Models on Real Data [20.00390825519329]
ICLに基づく検索と自己教師付き学習を組み合わせた基礎モデルの学習手法を提案する。
事前学習フェーズに実際のデータを組み込むことで、学習が大幅に速くなり、見当たらないデータへの一般化が向上することを示す。
得られたモデルであるTabDPTは回帰 (CTR23) と分類 (CC18) のベンチマークで最高の性能を達成する。
論文 参考訳(メタデータ) (2024-10-23T18:00:00Z) - Disperse-Then-Merge: Pushing the Limits of Instruction Tuning via Alignment Tax Reduction [75.25114727856861]
大規模言語モデル(LLM)は、スーパービジョンされた微調整プロセスの後半で劣化する傾向にある。
この問題に対処するための単純な分散結合フレームワークを導入する。
我々のフレームワークは、一連の標準知識と推論ベンチマークに基づいて、データキュレーションや正規化の訓練など、様々な高度な手法より優れています。
論文 参考訳(メタデータ) (2024-05-22T08:18:19Z) - TuneTables: Context Optimization for Scalable Prior-Data Fitted Networks [90.00817095558094]
事前データ対応ネットワーク(PFN)は、事前学習とコンテキスト内学習を利用して、1つのフォワードパスで新しいタスクの強力なパフォーマンスを実現する。
我々は、大規模なデータセットをより小さな学習コンテキストに圧縮するPFNのパラメータ効率の良い微調整戦略であるTuneTablesを紹介した。
我々は、TuneTablesを解釈可能性ツールとして使用することができ、公平性目標を最適化することでバイアスを軽減することができることを示した。
論文 参考訳(メタデータ) (2024-02-17T00:02:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。