論文の概要: HyP-ASO: A Hybrid Policy-based Adaptive Search Optimization Framework for Large-Scale Integer Linear Programs
- arxiv url: http://arxiv.org/abs/2509.15828v2
- Date: Mon, 22 Sep 2025 02:59:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 12:27:33.514458
- Title: HyP-ASO: A Hybrid Policy-based Adaptive Search Optimization Framework for Large-Scale Integer Linear Programs
- Title(参考訳): HyP-ASO:大規模整数線形プログラムのためのハイブリッドポリシーに基づく適応探索最適化フレームワーク
- Authors: Ning Xu, Junkai Zhang, Yang Wu, Huigen Ye, Hua Xu, Huiling Xu, Yifan Zhang,
- Abstract要約: HyP-ASOは、カスタマイズされた公式と深層強化学習(RL)を組み合わせたハイブリッドポリシーベースの適応検索最適化フレームワークである。
実験により、HyP-ASOは大規模IPPに対する既存のLSSベースのアプローチよりも大幅に優れていることが示された。
追加の実験では、軽量で高度にスケーラブルであることを示し、大規模IPPの解決に適していることが示されている。
- 参考スコア(独自算出の注目度): 29.446016007712114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Directly solving large-scale Integer Linear Programs (ILPs) using traditional solvers is slow due to their NP-hard nature. While recent frameworks based on Large Neighborhood Search (LNS) can accelerate the solving process, their performance is often constrained by the difficulty in generating sufficiently effective neighborhoods. To address this challenge, we propose HyP-ASO, a hybrid policy-based adaptive search optimization framework that combines a customized formula with deep Reinforcement Learning (RL). The formula leverages feasible solutions to calculate the selection probabilities for each variable in the neighborhood generation process, and the RL policy network predicts the neighborhood size. Extensive experiments demonstrate that HyP-ASO significantly outperforms existing LNS-based approaches for large-scale ILPs. Additional experiments show it is lightweight and highly scalable, making it well-suited for solving large-scale ILPs.
- Abstract(参考訳): 従来の解法を用いた大規模整数線形プログラム(ILP)の解法は、NPハードな性質のため遅い。
近年,Large Neborhood Search (LNS) をベースとしたフレームワークが解決プロセスの高速化を図っているが,その性能は十分有効な地区を生成することの難しさによって制約されることが多い。
この課題に対処するため,HyP-ASOを提案する。HyP-ASOは,カスタマイズされた公式と深層強化学習(RL)を組み合わせるハイブリッドポリシーベースの適応検索最適化フレームワークである。
この式は実現可能な解を利用して近傍生成過程における各変数の選択確率を計算し、RLポリシーネットワークは近傍サイズを予測する。
大規模な実験により、HyP-ASOは大規模IPPに対する既存のLSSベースのアプローチよりも大幅に優れていることが示された。
追加の実験では、軽量でスケーラブルであることを示し、大規模IPPの解決に適していることが示されている。
関連論文リスト
- SPL-LNS: Sampling-Enhanced Large Neighborhood Search for Solving Integer Linear Programs [59.91461374628034]
大規模近傍探索(Large Neighborhood Search, LNS)は、最適化において、現在のソリューションの大きな近傍を反復的に探索し、より良い解を求めることが一般的である。
本稿では,局所的最適解を逃れるために局所的インフォームド提案を利用するサンプリング型ニューラルネットワーク型LSS解法であるSPL-LNSを紹介する。
論文 参考訳(メタデータ) (2025-08-22T07:49:33Z) - Preference Optimization for Combinatorial Optimization Problems [54.87466279363487]
強化学習(Reinforcement Learning, RL)は、ニューラルネットワーク最適化のための強力なツールとして登場した。
大幅な進歩にもかかわらず、既存のRLアプローチは報酬信号の減少や大規模な行動空間における非効率な探索といった課題に直面している。
統計的比較モデルを用いて定量的報酬信号を定性的選好信号に変換する新しい手法であるPreference Optimizationを提案する。
論文 参考訳(メタデータ) (2025-05-13T16:47:00Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - Reinforcement Learning Methods for Wordle: A POMDP/Adaptive Control
Approach [0.3093890460224435]
我々は、新しい強化学習手法を用いて、人気のあるWordleパズルの解法に対処する。
Wordleパズルでは、比較的控えめな計算コストで最適に近いオンラインソリューション戦略が得られる。
論文 参考訳(メタデータ) (2022-11-15T03:46:41Z) - Online Control of Adaptive Large Neighborhood Search using Deep Reinforcement Learning [4.374837991804085]
DR-ALNSと呼ばれる深層強化学習に基づくアプローチを導入し、演算子を選択し、パラメータを調整し、検索全体を通して受け入れ基準を制御する。
提案手法は,IJCAIコンペティションで提示されたオリエンテーリングウェイトと時間窓の問題に対して評価する。
その結果,本手法はバニラALNSよりも優れており,ALNSはベイジアン最適化と2つの最先端DRLアプローチに適合していることがわかった。
論文 参考訳(メタデータ) (2022-11-01T21:33:46Z) - Simulation-guided Beam Search for Neural Combinatorial Optimization [13.072343634530883]
ニューラル最適化問題に対するシミュレーション誘導ビームサーチ(SGBS)を提案する。
我々は、SGBSと効率的なアクティブサーチ(EAS)を併用し、SGBSはEASでバックプロパゲーションされたソリューションの品質を高める。
提案手法をよく知られたCOベンチマークで評価し,SGBSが合理的な仮定で得られた解の質を著しく向上することを示す。
論文 参考訳(メタデータ) (2022-07-13T13:34:35Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。