論文の概要: Structure As Search: Unsupervised Permutation Learning for Combinatorial Optimization
- arxiv url: http://arxiv.org/abs/2507.04164v3
- Date: Wed, 24 Sep 2025 16:36:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 16:23:42.289223
- Title: Structure As Search: Unsupervised Permutation Learning for Combinatorial Optimization
- Title(参考訳): Structure as Search:Unsupervised Permutation Learning for Combinatorial Optimization
- Authors: Yimeng Min, Carla P. Gomes,
- Abstract要約: 本稿では,トラベリングセールスマン問題に対する非自己回帰的枠組みを提案する。
ハミルトンサイクルに類似性変換を適用することにより、モデルは連続緩和を通じて置換を近似することを学ぶ。
- 参考スコア(独自算出の注目度): 22.51828421737954
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a non-autoregressive framework for the Travelling Salesman Problem where solutions emerge directly from learned permutations, without requiring explicit search. By applying a similarity transformation to Hamiltonian cycles, the model learns to approximate permutation matrices via continuous relaxations. Our unsupervised approach achieves competitive performance against classical heuristics, demonstrating that the inherent structure of the problem can effectively guide combinatorial optimization without sequential decision-making. Our method offers concrete evidence that neural networks can directly capture and exploit combinatorial structure.
- Abstract(参考訳): 本研究では,学習順列から直接ソリューションが出現するトラベリングセールスマン問題に対して,明示的な探索を必要とせずに非自己回帰的枠組みを提案する。
ハミルトンサイクルに類似性変換を適用することにより、モデルは連続緩和を通じて置換行列を近似することを学ぶ。
我々の教師なしのアプローチは古典的ヒューリスティックスと競合する性能を達成し、問題の固有の構造が逐次決定を伴わずに組合せ最適化を効果的に導くことができることを示した。
我々の手法は、ニューラルネットワークが結合構造を直接捕捉し、活用できるという具体的な証拠を提供する。
関連論文リスト
- Graph Neural Networks are Heuristics [22.51828421737954]
我々は,グローバル構造を帰納バイアスとして符号化することで,非自己回帰モデルが探索,監督,シーケンシャルな意思決定なしに解を生成することができることを示す。
その結果、グラフニューラルネットワークはグローバルな構造を内部化せず、明確な探索が有効であることを証明した。
論文 参考訳(メタデータ) (2026-01-19T23:40:08Z) - Geometric Algorithms for Neural Combinatorial Optimization with Constraints [46.17172939797694]
Self-Supervised Learning for Combinatorial Optimization (CO)は、ニューラルネットワークを使って問題を解決するための新しいパラダイムである。
ニューラルネットワークによる離散的な制約付き最適化問題の解決を可能にする、エンドツーエンドの微分可能なフレームワークを設計する。
論文 参考訳(メタデータ) (2025-10-28T03:49:01Z) - Permutation Picture of Graph Combinatorial Optimization Problems [3.607883549126603]
本稿では、置換に基づく表現を用いて、幅広いグラフ最適化問題を定式化するフレームワークを提案する。
これらの問題には、旅行セールスマンの問題、最大独立セット、最大カット、その他様々な問題が含まれる。
論文 参考訳(メタデータ) (2024-10-22T15:36:04Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Simplifying Momentum-based Positive-definite Submanifold Optimization
with Applications to Deep Learning [24.97120654216651]
部分多様体上の運動量を持つ難しい微分方程式の解法を示す。
我々はリーマン正規座標の一般化版を提案する。
我々は,行列乗算のみを用いることで,構造化共分散の既存手法を単純化し,低精度のディープラーニングのための行列非逆2textnd$ordersを開発する。
論文 参考訳(メタデータ) (2023-02-20T03:31:11Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Tree ensemble kernels for Bayesian optimization with known constraints
over mixed-feature spaces [54.58348769621782]
木アンサンブルはアルゴリズムチューニングやニューラルアーキテクチャ検索といったブラックボックス最適化タスクに適している。
ブラックボックス最適化にツリーアンサンブルを使うことの2つのよく知られた課題は、探索のためのモデル不確実性を効果的に定量化し、また、 (ii) ピースワイドな定値取得関数を最適化することである。
我々のフレームワークは、連続/離散的機能に対する非拘束ブラックボックス最適化のための最先端の手法と同様に、混合変数の特徴空間と既知の入力制約を組み合わせた問題の競合する手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-02T16:59:37Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Neural Combinatorial Optimization: a New Player in the Field [69.23334811890919]
本稿では,ニューラルネットワークに基づくアルゴリズムの古典的最適化フレームワークへの導入に関する批判的分析を行う。
性能, 転送可能性, 計算コスト, 大規模インスタンスなど, これらのアルゴリズムの基本的側面を分析するために, 総合的研究を行った。
論文 参考訳(メタデータ) (2022-05-03T07:54:56Z) - Branch & Learn for Recursively and Iteratively Solvable Problems in
Predict+Optimize [9.772500430303285]
本稿では,解決時に未知のパラメータを含む最適化問題に取り組むための,予測+のフレームワークであるブランチ・アンド・ラーニングを提案する。
我々のフレームワークは、それらを退化的な再帰形式と見なして反復アルゴリズムにも適用している。
論文 参考訳(メタデータ) (2022-05-01T08:41:30Z) - Batch Bayesian Optimization on Permutations using Acquisition Weighted
Kernels [86.11176756341114]
決定点プロセスに基づく新しい効率的なバッチ取得方法であるLAWを紹介します。
本研究では,理論特性の知見を得るための後悔分析法を提案する。
二次代入などの置換を含むいくつかの標準問題に対する手法を評価する。
論文 参考訳(メタデータ) (2021-02-26T10:15:57Z) - Learning with Differentiable Perturbed Optimizers [54.351317101356614]
本稿では,操作を微分可能で局所的に一定ではない操作に変換する手法を提案する。
提案手法は摂動に依拠し,既存の解法とともに容易に利用することができる。
本稿では,この枠組みが,構造化予測において発達した損失の族とどのように結びつくかを示し,学習課題におけるそれらの使用に関する理論的保証を与える。
論文 参考訳(メタデータ) (2020-02-20T11:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。