論文の概要: Neural Combinatorial Optimization: a New Player in the Field
- arxiv url: http://arxiv.org/abs/2205.01356v1
- Date: Tue, 3 May 2022 07:54:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 14:59:10.599512
- Title: Neural Combinatorial Optimization: a New Player in the Field
- Title(参考訳): Neural Combinatorial Optimization: この分野の新しいプレイヤー
- Authors: Andoni I. Garmendia, Josu Ceberio, Alexander Mendiburu
- Abstract要約: 本稿では,ニューラルネットワークに基づくアルゴリズムの古典的最適化フレームワークへの導入に関する批判的分析を行う。
性能, 転送可能性, 計算コスト, 大規模インスタンスなど, これらのアルゴリズムの基本的側面を分析するために, 総合的研究を行った。
- 参考スコア(独自算出の注目度): 69.23334811890919
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural Combinatorial Optimization attempts to learn good heuristics for
solving a set of problems using Neural Network models and Reinforcement
Learning. Recently, its good performance has encouraged many practitioners to
develop neural architectures for a wide variety of combinatorial problems.
However, the incorporation of such algorithms in the conventional optimization
framework has raised many questions related to their performance and the
experimental comparison with other methods such as exact algorithms, heuristics
and metaheuristics. This paper presents a critical analysis on the
incorporation of algorithms based on neural networks into the classical
combinatorial optimization framework. Subsequently, a comprehensive study is
carried out to analyse the fundamental aspects of such algorithms, including
performance, transferability, computational cost and generalization to
larger-sized instances. To that end, we select the Linear Ordering Problem as a
case of study, an NP-hard problem, and develop a Neural Combinatorial
Optimization model to optimize it. Finally, we discuss how the analysed aspects
apply to a general learning framework, and suggest new directions for future
work in the area of Neural Combinatorial Optimization algorithms.
- Abstract(参考訳): Neural Combinatorial Optimizationは、ニューラルネットワークモデルと強化学習を使用して、一連の問題を解決するための優れたヒューリスティックを学習しようとする。
近年、その優れたパフォーマンスは、多くの実践者が様々な組合せ問題に対するニューラルアーキテクチャの開発を奨励している。
しかしながら、従来の最適化フレームワークにおけるそのようなアルゴリズムの導入は、その性能や、厳密なアルゴリズム、ヒューリスティックス、メタヒューリスティックスといった他の手法との実験的比較に関する多くの疑問を提起している。
本稿では,ニューラルネットワークに基づくアルゴリズムの古典的組合せ最適化フレームワークへの組み入れに関する批判的分析を行う。
その後, 大規模インスタンスへの性能, 転送可能性, 計算コスト, 一般化など, アルゴリズムの基本的側面を分析するための総合的研究を行った。
そこで本研究では,np-hard問題である線形順序問題を選択し,最適化のためのニューラルコンビネート最適化モデルを構築する。
最後に、解析された側面が一般的な学習フレームワークにどのように適用されるかについて議論し、Neural Combinatorial Optimizationアルゴリズムの領域における今後の研究の新たな方向性を提案する。
関連論文リスト
- Neural Algorithmic Reasoning for Combinatorial Optimisation [20.36694807847833]
ニューラル推論の最近の進歩を活用して,CO問題の学習を改善することを提案する。
私たちは、COインスタンスでトレーニングする前に、関連するアルゴリズムでニューラルネットワークを事前トレーニングすることを提案します。
以上の結果から,この学習装置を用いることで,非アルゴリズム的情報深層学習モデルよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-05-18T13:59:02Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Socio-cognitive Optimization of Time-delay Control Problems using
Evolutionary Metaheuristics [89.24951036534168]
メタヒューリスティックス(Metaheuristics)は、古典的なアプローチでは解決できない難解な問題を解くために使用される普遍的な最適化アルゴリズムである。
本稿では,キャストに基づく新しい社会認知メタヒューリスティックの構築を目標とし,このアルゴリズムのいくつかのバージョンを時間遅延システムモデルの最適化に適用する。
論文 参考訳(メタデータ) (2022-10-23T22:21:10Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - On the Convergence of Distributed Stochastic Bilevel Optimization
Algorithms over a Network [55.56019538079826]
バイレベル最適化は、幅広い機械学習モデルに適用されている。
既存のアルゴリズムの多くは、分散データを扱うことができないように、シングルマシンの設定を制限している。
そこで我々は,勾配追跡通信機構と2つの異なる勾配に基づく分散二段階最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-30T05:29:52Z) - On the Generalization of Neural Combinatorial Optimization Heuristics [0.7049738935364298]
提案手法は,2つの最先端モデルの一般化を著しく改善することを示す。
我々は、個別の学習課題として、与えられたインスタンス分布上でのCO問題の解法を定式化する。
新しいタスクに適応する能力の最適化を目的として,様々なタスクのモデル学習のためのメタラーニング手法について検討する。
論文 参考訳(メタデータ) (2022-06-01T22:39:35Z) - High-dimensional Bayesian Optimization Algorithm with Recurrent Neural
Network for Disease Control Models in Time Series [1.9371782627708491]
本稿では,リカレントニューラルネットワークを組み合わせた高次元ベイズ最適化アルゴリズムを提案する。
提案したRNN-BOアルゴリズムは,低次元空間における最適制御問題を解くことができる。
また、RNN層の異なる数の影響や、ソリューションの品質と関連する計算努力のトレードオフに対する訓練のエポックスについても論じる。
論文 参考訳(メタデータ) (2022-01-01T08:40:17Z) - Acceleration techniques for optimization over trained neural network
ensembles [1.0323063834827415]
本研究では, 線形単位活性化の補正されたフィードフォワードニューラルネットワークを用いて, 目的関数をモデル化する最適化問題について検討する。
本稿では,1つのニューラルネットワークを最適化するために,既存のBig-M$の定式化をベースとした混合整数線形プログラムを提案する。
論文 参考訳(メタデータ) (2021-12-13T20:50:54Z) - Particle Swarm Optimization: Fundamental Study and its Application to
Optimization and to Jetty Scheduling Problems [0.0]
従来の手法に関する進化的アルゴリズムの利点は、文献で大いに議論されている。
粒子群はそのような利点を共有しているが、計算コストの低減と実装の容易さが要求されるため、進化的アルゴリズムよりも優れている。
本論文は, それらのチューニングについて検討するものではなく, 従来の研究から汎用的な設定を抽出し, 様々な問題を最適化するために, 事実上同じアルゴリズムを用いている。
論文 参考訳(メタデータ) (2021-01-25T02:06:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。