論文の概要: DHEvo: Data-Algorithm Based Heuristic Evolution for Generalizable MILP Solving
- arxiv url: http://arxiv.org/abs/2507.15615v1
- Date: Mon, 21 Jul 2025 13:40:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.41827
- Title: DHEvo: Data-Algorithm Based Heuristic Evolution for Generalizable MILP Solving
- Title(参考訳): DHEvo: 一般化可能なMILP解法のためのデータアルゴリズムに基づくヒューリスティック進化
- Authors: Zhihao Zhang, Siyuan Li, Chenxi Li, Feifan Liu, Mengjing Chen, Kai Li, Tao Zhong, Bo An, Peng Liu,
- Abstract要約: 本稿では、代表インスタンスを反復的に選択し、対応するインスタンスを進化させるDHEvo(Data-algorithm co-evolution framework)を提案する。
初期インスタンス分布を用いて,データ-コードペアを同時に生成するLLMベースのマルチエージェントシステムを開発した。
これらのデータコードペアは、その適合度スコアに基づいて反復的に洗練され、問題クラス全体において最も効果的なものを特定する。
- 参考スコア(独自算出の注目度): 34.70680594067826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Primal heuristics play a critical role in improving the efficiency of mixed integer programming (MILP) solvers. As large language models (LLMs) have demonstrated superior code generation abilities, recent MILP works are devoted to leveraging the evolutionary computation approaches with LLMs to generate effective primal heuristics. Although the generated heuristics have achieved better solving performance than the hand-crafted ones with little adaptability, the advantage of current LLM-based methods is limited to few MILP instances in one problem class, as they fail to capture the instance characteristics in the problem class (the MILP instances generated from the same mathematical model are defined as a problem class). Since MILP instances often differ significantly in structure and feature distribution, the neglect of their characteristics in the evolution process results in poor generalization within the same problem class. To overcome this challenge, we propose a data-algorithm co-evolution framework (DHEvo) that iteratively selects representative instances and evolves corresponding heuristics. With the initial instance distribution, we develop an LLM-based multi-agent system to generate data-code pairs simultaneously. These data-code pairs are iteratively refined based on their fitness scores, leading to the identification of the most effective heuristic over the entire problem class. Extensive experiments across diverse MILP benchmarks demonstrate that our approach significantly outperforms both human-designed heuristics and existing LLM-based methods.
- Abstract(参考訳): プリマルヒューリスティックスは、混合整数計画法(MILP)の効率向上に重要な役割を果たしている。
大規模言語モデル(LLM)は優れたコード生成能力を示しており、近年のMILP研究は、LLMによる進化的計算手法を利用して効果的な原始的ヒューリスティックを生成することに集中している。
生成したヒューリスティックスは、手作りのものよりも少ない適応性を持つものよりも優れた解法性能を達成しているが、現在のLCMベースの手法の利点は、問題クラスのインスタンス特性を捉えるのに失敗するため、1つの問題クラスのMILPインスタンスに限られている(同じ数学的モデルから生成されたMILPインスタンスは問題クラスとして定義される)。
MILP インスタンスは構造や特徴分布においてしばしば大きく異なるため、進化過程におけるそれらの特性の無視は、同じ問題クラス内での一般化の欠如をもたらす。
この課題を克服するために、代表インスタンスを反復的に選択し、対応するヒューリスティックスを進化させるデータアルゴリズム共進化フレームワーク(DHEvo)を提案する。
初期インスタンス分布を用いて,データ-コードペアを同時に生成するLLMベースのマルチエージェントシステムを開発した。
これらのデータコードペアは、適合度スコアに基づいて反復的に洗練され、問題クラス全体において最も効果的なヒューリスティックが識別される。
多様なMILPベンチマークによる広範囲な実験により,本手法は人間設計のヒューリスティックスと既存のLCM法の両方を著しく上回っていることが示された。
関連論文リスト
- Discrete Tokenization for Multimodal LLMs: A Comprehensive Survey [69.45421620616486]
本研究は、大規模言語モデル(LLM)用に設計された離散トークン化手法の最初の構造的分類と解析である。
古典的および近代的なパラダイムにまたがる8つの代表的なVQ変種を分類し、アルゴリズムの原理を分析し、力学を訓練し、LLMパイプラインとの統合に挑戦する。
コードブックの崩壊、不安定な勾配推定、モダリティ固有の符号化制約など、重要な課題を特定する。
論文 参考訳(メタデータ) (2025-07-21T10:52:14Z) - CALM: Co-evolution of Algorithms and Language Model for Automatic Heuristic Design [11.639825726501659]
大規模言語モデル(LLM)は、従来のコストのごく一部で自律的にハイパフォーマンスを発見できる。
本稿では,言語指導と数値指導を組み合わせたハイブリッドフレームワークを提案する。
本手法は,様々な最適化タスクにおいて,SOTA(State-of-the-art)ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-05-18T07:48:47Z) - Efficient Model Selection for Time Series Forecasting via LLMs [52.31535714387368]
本稿では,Large Language Models (LLM) をモデル選択の軽量な代替手段として活用することを提案する。
提案手法は, LLMの固有知識と推論能力を活用することで, 明示的な性能行列の必要性を解消する。
論文 参考訳(メタデータ) (2025-04-02T20:33:27Z) - Can Large Language Models Be Trusted as Evolutionary Optimizers for Network-Structured Combinatorial Problems? [8.082897040940447]
大きな言語モデル(LLM)は、言語理解とさまざまなドメイン間の推論において素晴らしい能力を持っています。
本研究では,問題構造に係わるLLMの能力を評価するための体系的枠組みを提案する。
我々は,従来の個人レベルのアプローチと比較して,効率を著しく向上するコスト効率の高い集団レベルの最適化戦略を開発する。
論文 参考訳(メタデータ) (2025-01-25T05:19:19Z) - Improving Autoregressive Visual Generation with Cluster-Oriented Token Prediction [52.09472099976885]
IARは、LLMベースのビジュアル生成モデルのトレーニング効率と生成品質を向上させる改良された自動回帰ビジュアル生成方法である。
提案手法は,モデルのトレーニング効率と性能を100Mから1.4Bに継続的に向上させ,同じFIDを達成しながらトレーニング時間を半減させる。
論文 参考訳(メタデータ) (2025-01-01T15:58:51Z) - Multi-task Representation Learning for Mixed Integer Linear Programming [13.106799330951842]
本稿では,ML誘導MILP問題解決のためのマルチタスク学習フレームワークについて紹介する。
我々は,マルチタスク学習モデルが同一分布内の特殊モデルと類似して動作することを示す。
これは、問題のサイズやタスクの一般化において、それらを著しく上回る。
論文 参考訳(メタデータ) (2024-12-18T23:33:32Z) - Boosting LLM-based Relevance Modeling with Distribution-Aware Robust Learning [14.224921308101624]
本稿では,関係モデリングのための新しい分布認識ロバスト学習フレームワーク(DaRL)を提案する。
DaRLはAlipayの保険商品検索のためにオンラインで展開されている。
論文 参考訳(メタデータ) (2024-12-17T03:10:47Z) - MALT: Improving Reasoning with Multi-Agent LLM Training [66.9481561915524]
MALT(Multi-Agent LLM Training)は、推論プロセスを生成、検証、改善ステップに分割する、新しいポストトレーニング戦略である。
MATH、GSM8K、CSQAでは、MALTは、それぞれ15.66%、7.42%、9.40%の相対的な改善で同じベースラインLLMを上回っている。
論文 参考訳(メタデータ) (2024-12-02T19:30:36Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - Large Language Models as Surrogate Models in Evolutionary Algorithms: A Preliminary Study [5.6787965501364335]
サロゲートアシスト選択は、高価な最適化問題を解決する進化アルゴリズムの中核的なステップである。
伝統的に、これは従来の機械学習手法に依存しており、過去の評価を利用して新しいソリューションの性能を予測する。
本研究では,LLM推論機能に基づいた新しいサロゲートモデルを提案する。
論文 参考訳(メタデータ) (2024-06-15T15:54:00Z) - AdaMerging: Adaptive Model Merging for Multi-Task Learning [68.75885518081357]
本稿では,Adaptive Model Merging (AdaMerging)と呼ばれる革新的な手法を紹介する。
本来のトレーニングデータに頼ることなく、タスクレベルでも階層的にも、モデルマージの係数を自律的に学習することを目指している。
AdaMergingは、現在の最先端のタスク演算のマージ方式と比較すると、パフォーマンスが11%向上している。
論文 参考訳(メタデータ) (2023-10-04T04:26:33Z) - Model-Agnostic Multitask Fine-tuning for Few-shot Vision-Language
Transfer Learning [59.38343286807997]
未知タスクの視覚言語モデルのためのモデル非依存型マルチタスクファインチューニング(MAMF)を提案する。
モデルに依存しないメタラーニング(MAML)と比較して、MAMFは二段階最適化を捨て、一階勾配のみを使用する。
MAMFは5つのベンチマークデータセット上で、数ショットの転送学習において古典的な微調整法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-03-09T17:26:53Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。