論文の概要: GOAL: A Generalist Combinatorial Optimization Agent Learning
- arxiv url: http://arxiv.org/abs/2406.15079v2
- Date: Thu, 24 Oct 2024 16:52:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:49:26.075165
- Title: GOAL: A Generalist Combinatorial Optimization Agent Learning
- Title(参考訳): GOAL: 総合的な組合せ最適化エージェント学習
- Authors: Darko Drakulic, Sofia Michel, Jean-Marc Andreoli,
- Abstract要約: GOALは複数のハード最適化問題(COP)を効率的に解くことができるモデルである
ゴールは1つのバックボーンと、入力および出力処理用の軽量な問題固有のアダプタで構成されている。
GOALは,幅広いCOPを解く最初のマルチタスクモデルでありながら,特定のベースラインよりもわずかに劣っている。
- 参考スコア(独自算出の注目度): 0.05461938536945722
- License:
- Abstract: Machine Learning-based heuristics have recently shown impressive performance in solving a variety of hard combinatorial optimization problems (COPs). However they generally rely on a separate neural model, specialized and trained for each single problem. Any variation of a problem requires adjustment of its model and re-training from scratch. In this paper, we propose GOAL (for Generalist combinatorial Optimization Agent Learning), a generalist model capable of efficiently solving multiple COPs and which can be fine-tuned to solve new COPs. GOAL consists of a single backbone plus light-weight problem-specific adapters for input and output processing. The backbone is based on a new form of mixed-attention blocks which allows to handle problems defined on graphs with arbitrary combinations of node, edge and instance-level features. Additionally, problems which involve heterogeneous types of nodes or edges are handled through a novel multi-type transformer architecture, where the attention blocks are duplicated to attend the meaningful combinations of types while relying on the same shared parameters. We train GOAL on a set of routing, scheduling and classic graph problems and show that it is only slightly inferior to the specialized baselines while being the first multi-task model that solves a wide range of COPs. Finally we showcase the strong transfer learning capacity of GOAL by fine-tuning it on several new problems. Our code is available at https://github.com/naver/goal-co/.
- Abstract(参考訳): 機械学習ベースのヒューリスティックスは、最近、様々なハード組合せ最適化問題(COP)の解決において、素晴らしいパフォーマンスを示している。
しかし、それらは一般的に、個々の問題に特化して訓練された、別々のニューラルモデルに依存している。
問題のあらゆるバリエーションは、モデルを調整し、スクラッチから再トレーニングする必要があります。
本稿では,複数のCOPを効率的に解ける汎用モデルであるGOAL(Generalist combinatorial Optimization Agent Learning)を提案する。
GOALは1つのバックボーンと、入力および出力処理用の軽量な問題固有のアダプタで構成されている。
バックボーンは、ノード、エッジ、インスタンスレベルの任意の組み合わせでグラフ上で定義された問題を処理することができる、ミックスアテンションブロックの新たな形式に基づいている。
さらに、異種ノードやエッジを含む問題は、新しいマルチタイプトランスフォーマーアーキテクチャによって処理され、同じ共有パラメータに依存しながら、型の意味的な組み合わせに対応するために、注意ブロックが複製される。
GOALはルーティング,スケジューリング,古典グラフの一連の問題に対して訓練を行い,幅広いCOPを解く最初のマルチタスクモデルでありながら,特殊なベースラインよりもわずかに劣っていることを示す。
最後に、GOALの強い伝達学習能力について、いくつかの新しい問題を微調整して紹介する。
私たちのコードはhttps://github.com/naver/goal-co/で利用可能です。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Towards a Generic Representation of Combinatorial Problems for
Learning-Based Approaches [2.2526069385327316]
近年,問題解決に学習ベースのアプローチを使うことへの関心が高まっている。
この課題は、対象とする問題を学習アルゴリズムと互換性のある構造に符号化することにある。
既存の多くの研究は、しばしばグラフの形で、テキストトグラフニューラルネットワークの利点を活用するために問題固有の表現を提案している。
本稿では,学習に基づくアプローチにおける問題を完全に包括的に表現することを提唱する。
論文 参考訳(メタデータ) (2024-03-09T22:28:46Z) - Symmetry-preserving graph attention network to solve routing problems at
multiple resolutions [1.9304772860080408]
問題解決のために,最初の完全同変モデルとトレーニングを導入する。
入力グラフのマルチスケール構造を捉えることが不可欠である。
本稿では,Equi Graph Attention Network (mEGAT) アーキテクチャと組み合わせたマルチレゾリューション方式を提案する。
論文 参考訳(メタデータ) (2023-10-24T06:22:20Z) - Learning to Branch in Combinatorial Optimization with Graph Pointer
Networks [17.729352126574902]
本稿では,分岐境界における変数選択ポリシーを学習するためのグラフポインターネットワークモデルを提案する。
グラフニューラルネットワークとポインタ機構を組み合わせたモデルでは,解法状態から分岐変数決定への効果的マッピングが可能である。
論文 参考訳(メタデータ) (2023-07-04T01:56:07Z) - Symmetric Tensor Networks for Generative Modeling and Constrained
Combinatorial Optimization [72.41480594026815]
ポートフォリオ最適化からロジスティクスに至るまで、制約付き最適化問題は業界に多い。
これらの問題の解決における主要な障害の1つは、有効な検索空間を制限する非自明なハード制約の存在である。
本研究では、Ax=bという形の任意の整数値等式制約をU(1)対称ネットワーク(TN)に直接エンコードし、それらの適用性を量子に着想を得た生成モデルとして活用する。
論文 参考訳(メタデータ) (2022-11-16T18:59:54Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - A Bi-Level Framework for Learning to Solve Combinatorial Optimization on
Graphs [91.07247251502564]
本稿では,2つの世界の長所を結合するハイブリッドな手法を提案する。この手法では,グラフを最適化する上層学習手法とバイレベルフレームワークを開発する。
このような二段階のアプローチは、元のハードCOでの学習を単純化し、モデルキャパシティの需要を効果的に軽減することができる。
論文 参考訳(メタデータ) (2021-06-09T09:18:18Z) - BASE Layers: Simplifying Training of Large, Sparse Models [53.98145464002843]
我々は,大規模言語モデルのための新しいバランスド・アサイン・オブ・エキスパート(base)層を導入する。
スパース層は、各トークンを専門のエキスパートモジュールにルーティングすることで、トレーニングと推論の効率を劇的に改善することができる。
トークン対エキスパート割り当てを線形割り当て問題として定式化し、各専門家が等しいトークン数を受け取る最適な割り当てを可能にする。
論文 参考訳(メタデータ) (2021-03-30T23:08:32Z) - Reversible Action Design for Combinatorial Optimization with
Reinforcement Learning [35.50454156611722]
強化学習(rl)は、これらの問題に取り組むための新しいフレームワークとして最近登場した。
最先端の実証性能を示すだけでなく、様々な種類のCOPに一般化する汎用RLフレームワークを提案します。
論文 参考訳(メタデータ) (2021-02-14T18:05:42Z) - Zero Training Overhead Portfolios for Learning to Solve Combinatorial
Problems [21.411742165753456]
ZTopは、シンプルなが効果的なモデル選択と、問題を解決するための学習のためのアンサンブル機構である。
ZToppingは、ZTopアンサンブル戦略と与えられたディープラーニングアプローチを用いて、現在最先端のディープラーニングアプローチの性能を大幅に向上させる方法を示している。
論文 参考訳(メタデータ) (2021-02-05T05:23:26Z) - Stepwise Model Selection for Sequence Prediction via Deep Kernel
Learning [100.83444258562263]
本稿では,モデル選択の課題を解決するために,新しいベイズ最適化(BO)アルゴリズムを提案する。
結果として得られる複数のブラックボックス関数の最適化問題を協調的かつ効率的に解くために,ブラックボックス関数間の潜在的な相関を利用する。
我々は、シーケンス予測のための段階的モデル選択(SMS)の問題を初めて定式化し、この目的のために効率的な共同学習アルゴリズムを設計し、実証する。
論文 参考訳(メタデータ) (2020-01-12T09:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。