論文の概要: Test-Time Adaptation for Unsupervised Combinatorial Optimization
- arxiv url: http://arxiv.org/abs/2601.21048v1
- Date: Wed, 28 Jan 2026 21:14:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.435853
- Title: Test-Time Adaptation for Unsupervised Combinatorial Optimization
- Title(参考訳): 教師なし組合せ最適化のためのテスト時間適応
- Authors: Yiqiao Liao, Farinaz Koushanfar, Parinaz Naghizadeh,
- Abstract要約: 教師なしニューラルネットワーク最適化(NCO)は、地道的なソリューションにアクセスせずに強力な解法を学習することを可能にする。
既存のアプローチは、インスタンス間の一般化のために訓練されたモデルと、テスト時に独立してインスタンス固有のモデルである。
モデルに依存しないテスト時間適応フレームワークであるTACOを提案する。
- 参考スコア(独自算出の注目度): 16.190991191536344
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unsupervised neural combinatorial optimization (NCO) enables learning powerful solvers without access to ground-truth solutions. Existing approaches fall into two disjoint paradigms: models trained for generalization across instances, and instance-specific models optimized independently at test time. While the former are efficient during inference, they lack effective instance-wise adaptability; the latter are flexible but fail to exploit learned inductive structure and are prone to poor local optima. This motivates the central question of our work: how can we leverage the inductive bias learned through generalization while unlocking the flexibility required for effective instance-wise adaptation? We first identify a challenge in bridging these two paradigms: generalization-focused models often constitute poor warm starts for instance-wise optimization, potentially underperforming even randomly initialized models when fine-tuned at test time. To resolve this incompatibility, we propose TACO, a model-agnostic test-time adaptation framework that unifies and extends the two existing paradigms for unsupervised NCO. TACO applies strategic warm-starting to partially relax trained parameters while preserving inductive bias, enabling rapid and effective unsupervised adaptation. Crucially, compared to naively fine-tuning a trained generalizable model or optimizing an instance-specific model from scratch, TACO achieves better solution quality while incurring negligible additional computational cost. Experiments on canonical CO problems, Minimum Vertex Cover and Maximum Clique, demonstrate the effectiveness and robustness of TACO across static, distribution-shifted, and dynamic combinatorial optimization problems, establishing it as a practical bridge between generalizable and instance-specific unsupervised NCO.
- Abstract(参考訳): 教師なしのニューラルネットワーク最適化(NCO)は、地道解にアクセスすることなく強力な解法を学習することを可能にする。
既存のアプローチは、インスタンス間の一般化のために訓練されたモデルと、テスト時に独立して最適化されたインスタンス固有のモデルである。
前者は推論において効率的であるが、実効的なインスタンスワイド適応性は欠如しており、後者は柔軟だが学習された帰納的構造を活用できず、局所最適性の低い傾向にある。
効果的なインスタンスワイド適応に必要な柔軟性を解放しながら、一般化を通じて学んだ帰納的バイアスをどのように活用できるのか?
この2つのパラダイムをブリッジする上での課題を最初に挙げる: 一般化中心のモデルは、例の最適化において温かいスタートを欠くことが多く、テスト時に微調整された場合、ランダムに初期化モデルでさえも性能が劣る可能性がある。
この不整合性を解決するため,モデルに依存しないテスト時間適応フレームワークであるTACOを提案する。
TACOは、誘導バイアスを保ちながらトレーニングされたパラメータを部分的に緩和し、迅速かつ効果的な教師なし適応を可能にするために、戦略的ウォームスタートを適用している。
重要なことに、訓練済みの一般化可能なモデルや、スクラッチからインスタンス固有のモデルを最適化することに比べ、TACOは、無視できない追加計算コストを発生させながら、より良いソリューション品質を達成する。
標準CO問題(Minimum Vertex Cover)と最大Clique(Maximum Clique)の実験は、静的、分布シフト、動的組合せ最適化問題におけるTACOの有効性とロバスト性を実証し、一般化可能なNCOとインスタンス固有のunsupervised NCOの実践的ブリッジとして確立した。
関連論文リスト
- HVAdam: A Full-Dimension Adaptive Optimizer [18.315990067259253]
Anonは、古典と近代のギャップを埋めることのできる、最初の統一的で信頼性の高いフレームワークを提供する。
アニオンはSGDライクな行動とアダムライクな行動の両方を補間する。
論文 参考訳(メタデータ) (2025-11-25T13:05:40Z) - Multimodal Large Language Models with Adaptive Preference Optimization for Sequential Recommendation [60.33386541343322]
本稿では,Hardness-Aware とNoNoRec (HaNoRec) を併用したマルチモーダル大規模言語モデルフレームワークを提案する。
具体的には、HaNoRecは、各トレーニングサンプルの予測硬度とポリシーモデルのリアルタイム応答性の両方に基づいて、最適化重量を動的に調整する。
論文 参考訳(メタデータ) (2025-11-24T04:10:46Z) - TCPO: Thought-Centric Preference Optimization for Effective Embodied Decision-making [75.29820290660065]
本稿では,効果的な具体的意思決定のための思考中心推論最適化(TCPO)を提案する。
モデルの中間的推論プロセスの整合性を強調し、モデル劣化の問題を緩和する。
ALFWorld環境での実験では、平均成功率は26.67%であり、RL4VLMよりも6%向上している。
論文 参考訳(メタデータ) (2025-09-10T11:16:21Z) - Orthogonal Projection Subspace to Aggregate Online Prior-knowledge for Continual Test-time Adaptation [67.80294336559574]
連続テスト時間適応(CTTA)は、新しいシナリオに継続的に適応するために、ソース事前訓練されたモデルを必要とするタスクである。
我々は、OoPkと呼ばれるオンライン事前知識を集約する新しいパイプラインOrthogonal Projection Subspaceを提案する。
論文 参考訳(メタデータ) (2025-06-23T18:17:39Z) - TACO: Tackling Over-correction in Federated Learning with Tailored Adaptive Correction [24.266135702821334]
エッジクライアントにまたがる非独立で同一に分散された(Non-IID)データは、長い間、連邦学習(FL)トレーニングに重大な課題を提起してきた。
本研究では,クライアント固有の勾配補正とモデルアグリゲーションを実装することで,クライアントのデータの非IID特性に対処する新しいアルゴリズムTACOを提案する。
トレーニング効率を向上させるため、TACOは、最小限のオーバーヘッドと同期モデルパラメータ以外の余分な情報を必要としない、軽量なモデル修正と調整された集約アプローチを展開している。
論文 参考訳(メタデータ) (2025-04-24T13:16:21Z) - SeWA: Selective Weight Average via Probabilistic Masking [51.015724517293236]
より良く、より高速な収束を達成するためには、ほんの数ポイントしか必要としないことを示す。
離散選択問題を連続的な部分集合最適化フレームワークに変換する。
両凸画像チェックポイントの値よりもシャープなSeWAの安定性境界を導出する。
論文 参考訳(メタデータ) (2025-02-14T12:35:21Z) - Gradient Correction in Federated Learning with Adaptive Optimization [19.93709245766609]
クライアント-ドリフト補償を適応最適化に組み込む最初のアルゴリズムである tt FAdamGC を提案する。
tt FAdamGCは、様々なレベルのデータの通信とコストにおいて、既存の手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2025-02-04T21:21:30Z) - Enhancing Robustness of Vision-Language Models through Orthogonality Learning and Self-Regularization [77.62516752323207]
そこで本研究では,事前訓練した重みを効率よく微調整する直交微調整法を導入し,頑健さと一般化の強化を実現した。
自己正規化戦略は、OrthSRと呼ばれるVLMのゼロショット一般化の観点から安定性を維持するためにさらに活用される。
筆者らはCLIPとCoOpを再検討し,少数の画像のクラスフィシエーションシナリオにおけるモデルの改善を効果的に行う。
論文 参考訳(メタデータ) (2024-07-11T10:35:53Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - On the Generalization of Neural Combinatorial Optimization Heuristics [0.7049738935364298]
提案手法は,2つの最先端モデルの一般化を著しく改善することを示す。
我々は、個別の学習課題として、与えられたインスタンス分布上でのCO問題の解法を定式化する。
新しいタスクに適応する能力の最適化を目的として,様々なタスクのモデル学習のためのメタラーニング手法について検討する。
論文 参考訳(メタデータ) (2022-06-01T22:39:35Z) - Rich Feature Construction for the Optimization-Generalization Dilemma [18.721567020497968]
我々は、モデルで使用できる潜在的に有用な機能のパレットを含むリッチな表現(RFC)を構築する。
RFCは、6つのOoDメソッドが挑戦的な不変トレーニングベンチマークで最高のパフォーマンスを達成するのを一貫して支援します。
現実的な Camelyon17 タスクでは,OoD と OoD の両手法が,従来の計算可能な結果に対して少なくとも 5% 以上の性能を発揮する。
論文 参考訳(メタデータ) (2022-03-24T20:39:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。