論文の概要: Adaptation and Fine-tuning with TabPFN for Travelling Salesman Problem
- arxiv url: http://arxiv.org/abs/2511.05872v1
- Date: Sat, 08 Nov 2025 06:16:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.628066
- Title: Adaptation and Fine-tuning with TabPFN for Travelling Salesman Problem
- Title(参考訳): 旅行セールスマン問題に対するTabPFNの適応と微調整
- Authors: Nguyen Gia Hien Vu, Yifan Tang, Rey Lim, Yifan Yang, Hang Ma, Ke Wang, G. Gary Wang,
- Abstract要約: 本稿では,Y Combinatorial Optimization(CO)問題におけるTabPFNの適用について検討する。
我々はTabPFNモデルを調整し、最もよく知られたCO問題の1つであるトラベリングセールスマン問題(TSP)を解決する。
以上の結果から,TabPFNモデルが資源制約や迅速な展開要件の下で,構造的およびCO問題を効率的に解決するための有望なアプローチであることが示唆された。
- 参考スコア(独自算出の注目度): 8.840370029319269
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Tabular Prior-Data Fitted Network (TabPFN) is a foundation model designed for small to medium-sized tabular data, which has attracted much attention recently. This paper investigates the application of TabPFN in Combinatorial Optimization (CO) problems. The aim is to lessen challenges in time and data-intensive training requirements often observed in using traditional methods including exact and heuristic algorithms, Machine Learning (ML)-based models, to solve CO problems. Proposing possibly the first ever application of TabPFN for such a purpose, we adapt and fine-tune the TabPFN model to solve the Travelling Salesman Problem (TSP), one of the most well-known CO problems. Specifically, we adopt the node-based approach and the node-predicting adaptation strategy to construct the entire TSP route. Our evaluation with varying instance sizes confirms that TabPFN requires minimal training, adapts to TSP using a single sample, performs better generalization across varying TSP instance sizes, and reduces performance degradation. Furthermore, the training process with adaptation and fine-tuning is completed within minutes. The methodology leads to strong solution quality even without post-processing and achieves performance comparable to other models with post-processing refinement. Our findings suggest that the TabPFN model is a promising approach to solve structured and CO problems efficiently under training resource constraints and rapid deployment requirements.
- Abstract(参考訳): Tabular Prior-Data Fitted Network (TabPFN) は,小~中規模の表形式データを対象とした基礎モデルであり,近年注目されている。
本稿では,Y Combinatorial Optimization(CO)問題におけるTabPFNの適用について検討する。
目的は、CO問題を解決するために、正確でヒューリスティックなアルゴリズム、機械学習(ML)ベースのモデルを含む従来の手法でよく見られる時間とデータ集約的なトレーニング要件を減らすことである。
このような目的のためにTabPFNを初めて適用した可能性があり、TabPFNモデルを微調整して、最もよく知られたCO問題の一つであるTravelling Salesman Problem (TSP) を解決する。
具体的には、ノードベースのアプローチとノード予測適応戦略を採用して、TSP経路全体を構築する。
評価の結果,TabPFN は最小限のトレーニングが必要であり,単一サンプルを用いて TSP に適応し,様々な TSP インスタンスサイズにまたがる一般化を実現し,性能劣化を低減できることがわかった。
さらに、適応と微調整の訓練工程は数分で完了する。
この手法は、後処理なしでも強力なソリューション品質をもたらし、後処理の洗練を伴う他のモデルに匹敵するパフォーマンスを達成する。
以上の結果から,TabPFNモデルが資源制約や迅速な展開要件の下で,構造的およびCO問題を効率的に解決するための有望なアプローチであることが示唆された。
関連論文リスト
- On Finetuning Tabular Foundation Models [29.76586200178702]
TabPFNv2は、小規模データセット上の従来のGBDTベースのメソッドよりも優れたパフォーマンスを主張する。
多様なデータセットに対してTabPFNv2の様々な微調整戦略を評価する。
実験対象の問合せ表現の点生成物は, 勾配適応後, 目標の類似性をより正確に反映していることから, 微調整の成功が示唆された。
論文 参考訳(メタデータ) (2025-06-10T16:52:31Z) - Training Deep Learning Models with Norm-Constrained LMOs [56.00317694850397]
線形最小化オラクル(LMO)を用いて問題の幾何学に適応する新しいアルゴリズム群を提案する。
我々は,Adamに頼らずに,我々のアルゴリズムであるScionを用いたナノGPTトレーニングの大幅な高速化を示す。
論文 参考訳(メタデータ) (2025-02-11T13:10:34Z) - Tokenize features, enhancing tables: the FT-TABPFN model for tabular classification [13.481699494376809]
FT-TabPFNはTabPFNの拡張版で、分類機能をよりよく扱うための新しい機能トークン化レイヤを含んでいる。
私たちの完全なソースコードは、コミュニティの利用と開発に利用可能です。
論文 参考訳(メタデータ) (2024-06-11T02:13:46Z) - Interpretable Machine Learning for TabPFN [5.012821694203072]
TabPFNモデルは、様々な分類タスクで最先端のパフォーマンスを達成することができる。
モデルのユニークな性質を利用することで、我々の適応はより効率的な計算を可能にします。
論文 参考訳(メタデータ) (2024-03-16T13:35:15Z) - TuneTables: Context Optimization for Scalable Prior-Data Fitted Networks [90.00817095558094]
事前データ対応ネットワーク(PFN)は、事前学習とコンテキスト内学習を利用して、1つのフォワードパスで新しいタスクの強力なパフォーマンスを実現する。
我々は、大規模なデータセットをより小さな学習コンテキストに圧縮するPFNのパラメータ効率の良い微調整戦略であるTuneTablesを紹介した。
我々は、TuneTablesを解釈可能性ツールとして使用することができ、公平性目標を最適化することでバイアスを軽減することができることを示した。
論文 参考訳(メタデータ) (2024-02-17T00:02:23Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。