論文の概要: Can Computational Reducibility Lead to Transferable Models for Graph Combinatorial Optimization?
- arxiv url: http://arxiv.org/abs/2603.02462v1
- Date: Mon, 02 Mar 2026 23:03:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.572615
- Title: Can Computational Reducibility Lead to Transferable Models for Graph Combinatorial Optimization?
- Title(参考訳): 計算的還元性はグラフコンビネータ最適化のためのトランスファー可能なモデルにつながるか?
- Authors: Semih Cantürk, Thomas Sabourin, Frederik Wenkel, Michael Perlmutter, Guy Wolf,
- Abstract要約: 最適化のための統合ニューラルネットワーク(CO)の導出における鍵となる課題は、モデルの効率的な一般化である。
まず、GCONモジュールを表現的メッセージパッシングの形式として利用し、エネルギーベースの非教師なし損失関数と組み合わせて、新しいモデルを構築した。
我々は,MVC,MIS,MaxClique間で効果的に伝達する事前学習および微調整戦略を提案する。
- 参考スコア(独自算出の注目度): 12.560527470597505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A key challenge in deriving unified neural solvers for combinatorial optimization (CO) is efficient generalization of models between a given set of tasks to new tasks not used during the initial training process. To address it, we first establish a new model, which uses a GCON module as a form of expressive message passing together with energy-based unsupervised loss functions. This model achieves high performance (often comparable with state-of-the-art results) across multiple CO tasks when trained individually on each task. We then leverage knowledge from the computational reducibility literature to propose pretraining and fine-tuning strategies that transfer effectively (a) between MVC, MIS and MaxClique, and (b) in a multi-task learning setting that additionally incorporates MaxCut, MDS and graph coloring. Additionally, in a leave-one-out, multi-task learning setting, we observe that pretraining on all but one task almost always leads to faster convergence on the remaining task when fine-tuning while avoiding negative transfer. Our findings indicate that learning common representations across multiple graph CO problems is viable through the use of expressive message passing coupled with pretraining strategies that are informed by the polynomial reduction literature, thereby taking an important step towards enabling the development of foundational models for neural CO. We provide an open-source implementation of our work at https://github.com/semihcanturk/COPT-MT .
- Abstract(参考訳): 組合せ最適化(CO)のための統合ニューラルソルバの導出における重要な課題は、与えられたタスクセットから初期トレーニングプロセスで使われていない新しいタスクへのモデルの効率的な一般化である。
まず、GCONモジュールを表現的メッセージパッシングの形式として利用し、エネルギーをベースとした教師なし損失関数と組み合わせて、新しいモデルを構築する。
このモデルは、個々のタスクで個別に訓練された場合、複数のCOタスク間で高いパフォーマンス(しばしば最先端の結果に匹敵する)を達成する。
次に、計算再現性文献からの知識を活用して、効果的に転送する事前学習および微調整戦略を提案する。
(a)MVC、MIS、MaxClique、および
(b) MaxCut, MDS, グラフ彩色を付加したマルチタスク学習環境。
さらに,1つのタスクを除く全てのタスクに対する事前学習が,負の移動を回避しながら微調整を行う場合,残りのタスクへの収束を早めることが観察された。
本研究は,複数のグラフCO問題に対する共通表現の学習が,表現的メッセージパッシングと,多項式還元文学によって伝達される事前学習戦略を併用することにより実現可能であることを示し,ニューラルCOの基礎モデルの開発に向けて重要な一歩を踏み出した。
我々は、https://github.com/semihcanturk/COPT-MTで、私たちの仕事のオープンソース実装を提供しています。
関連論文リスト
- A Scalable Pretraining Framework for Link Prediction with Efficient Adaptation [16.82426251068573]
リンク予測(LP)は、グラフ機械学習において重要なタスクである。
既存の手法は、疎結合性からの限られた監督を含む重要な課題に直面している。
これらの課題に対処するためのソリューションとして,事前学習について検討する。
論文 参考訳(メタデータ) (2025-08-06T17:10:31Z) - HGMP:Heterogeneous Graph Multi-Task Prompt Learning [18.703129208282913]
ヘテロジニアスグラフ領域のための新しいマルチタスクプロンプトフレームワークHGMPを提案する。
まず、事前訓練されたモデルと下流タスクのギャップを埋めるために、下流タスクを統一的なグラフレベルタスク形式に再構成する。
我々は,異種情報を活用し,マルチタスクシナリオの性能を向上させるために,グラフレベルのコントラスト事前学習戦略を設計する。
論文 参考訳(メタデータ) (2025-07-10T04:01:47Z) - Train with Perturbation, Infer after Merging: A Two-Stage Framework for Continual Learning [57.514786046966265]
textbfPerturb-and-Merge(P&M)は,モデルマージをCLパラダイムに統合し,忘れを緩和する新しい連続学習フレームワークである。
提案手法は,複数の連続学習ベンチマークデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2025-05-28T14:14:19Z) - SyMerge: From Non-Interference to Synergistic Merging via Single-Layer Adaptation [28.417947631789783]
SyMergeは1つのタスク固有のレイヤとマージ係数を共同で最適化する軽量フレームワークである。
SyMergeは、ビジョン、密度予測、NLPベンチマークを越えて最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-12-26T07:42:06Z) - DeepONet as a Multi-Operator Extrapolation Model: Distributed Pretraining with Physics-Informed Fine-Tuning [6.635683993472882]
マルチオペレータ学習を実現するためのファインチューニング手法を提案する。
本手法は,事前学習における各種演算子からのデータを分散学習と組み合わせ,物理インフォームド手法によりゼロショット微調整が可能となる。
論文 参考訳(メタデータ) (2024-11-11T18:58:46Z) - ULTRA-DP: Unifying Graph Pre-training with Multi-task Graph Dual Prompt [67.8934749027315]
本稿では,タスク識別と位置識別をGNNに注入する,グラフハイブリッド事前学習のための統合フレームワークを提案する。
また,約$k$-nearest隣人のグループに基づいた,新しい事前学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:11:13Z) - Efficient Training of Multi-task Neural Solver for Combinatorial Optimization [23.694457372640912]
本稿では,統合型マルチタスクニューラルソルバを実現するための,汎用的で効率的なトレーニングパラダイムを提案する。
本手法は, 制約付きトレーニング予算の範囲内であっても, 全体的な性能を著しく向上させる。
また,本手法は単一タスク学習やマルチタスク学習と比較して最高の結果を得た。
論文 参考訳(メタデータ) (2023-05-10T14:20:34Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - Model-Agnostic Multitask Fine-tuning for Few-shot Vision-Language
Transfer Learning [59.38343286807997]
未知タスクの視覚言語モデルのためのモデル非依存型マルチタスクファインチューニング(MAMF)を提案する。
モデルに依存しないメタラーニング(MAML)と比較して、MAMFは二段階最適化を捨て、一階勾配のみを使用する。
MAMFは5つのベンチマークデータセット上で、数ショットの転送学習において古典的な微調整法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-03-09T17:26:53Z) - Graph Representation Learning for Multi-Task Settings: a Meta-Learning
Approach [5.629161809575013]
メタ学習に基づくグラフ表現学習のための新しい学習戦略を提案する。
本手法は,複数タスクの同時実行学習において発生する問題を回避する。
我々は,本手法で訓練したモデルが生成した埋め込みを,単一タスクとマルチタスクの両エンドツーエンドモデルに匹敵する,あるいは驚くほど高いパフォーマンスで複数のタスクを実行できることを示す。
論文 参考訳(メタデータ) (2022-01-10T12:58:46Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。