論文の概要: Canonical Intermediate Representation for LLM-based optimization problem formulation and code generation
- arxiv url: http://arxiv.org/abs/2602.02029v1
- Date: Mon, 02 Feb 2026 12:26:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.142179
- Title: Canonical Intermediate Representation for LLM-based optimization problem formulation and code generation
- Title(参考訳): LLMに基づく最適化問題の定式化とコード生成のための標準中間表現
- Authors: Zhongyuan Lyu, Shuoyu Hu, Lujie Liu, Hongxia Yang, Ming LI,
- Abstract要約: 我々は、LCMが問題記述と最適化モデルの間で明示的に生成するスキーマであるCanonical Intermediate Representation (CIR)を導入する。
CIRは制約的アーキタイプと候補モデリングパラダイムを通じて、運用ルールのセマンティクスを符号化する。
問題テキストを解析し、ドメイン知識を取得してCIR実装を合成し、最適化モデルをインスタンス化するマルチエージェントパイプラインであるルール・トゥ・制約・フレームワークを開発した。
- 参考スコア(独自算出の注目度): 22.998405337017928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatically formulating optimization models from natural language descriptions is a growing focus in operations research, yet current LLM-based approaches struggle with the composite constraints and appropriate modeling paradigms required by complex operational rules. To address this, we introduce the Canonical Intermediate Representation (CIR): a schema that LLMs explicitly generate between problem descriptions and optimization models. CIR encodes the semantics of operational rules through constraint archetypes and candidate modeling paradigms, thereby decoupling rule logic from its mathematical instantiation. Upon a newly generated CIR knowledge base, we develop the rule-to-constraint (R2C) framework, a multi-agent pipeline that parses problem texts, synthesizes CIR implementations by retrieving domain knowledge, and instantiates optimization models. To systematically evaluate rule-to-constraint reasoning, we test R2C on our newly constructed benchmark featuring rich operational rules, and benchmarks from prior work. Extensive experiments show that R2C achieves state-of-the-art accuracy on the proposed benchmark (47.2% Accuracy Rate). On established benchmarks from the literature, R2C delivers highly competitive results, approaching the performance of proprietary models (e.g., GPT-5). Moreover, with a reflection mechanism, R2C achieves further gains and sets new best-reported results on some benchmarks.
- Abstract(参考訳): 自然言語記述からの最適化モデルの自動定式化は、オペレーション研究に注目が集まっているが、現在のLLMベースのアプローチは、複雑な運用ルールによって要求される複合的制約と適切なモデリングパラダイムに苦慮している。
この問題に対処するために,LLMが問題記述と最適化モデルの間で明示的に生成するスキーマであるCanonical Intermediate Representation (CIR)を導入する。
CIRは制約的アーキタイプと候補モデリングパラダイムを通じて運用ルールのセマンティクスを符号化し、したがってルールロジックを数学的インスタンス化から切り離す。
新たに生成されたCIR知識ベースにおいて,問題テキストを解析し,ドメイン知識を取得してCIR実装を合成し,最適化モデルをインスタンス化するマルチエージェントパイプラインであるR2Cフレームワークを開発した。
ルールと制約の推論を体系的に評価するために、我々は、リッチな運用ルールと以前の作業からのベンチマークを特徴とする、新しく構築されたベンチマークでR2Cをテストした。
大規模な実験により、R2Cは提案されたベンチマーク(47.2%の精度)で最先端の精度を達成することが示された。
文献から確立されたベンチマークでは、R2Cは、プロプライエタリなモデル(例えば、GPT-5)のパフォーマンスにアプローチして、非常に競争力のある結果をもたらす。
さらに、リフレクション機構により、R2Cはさらなるゲインを達成し、いくつかのベンチマークで新しい最高のレポート結果を設定する。
関連論文リスト
- Deep Unfolding: Recent Developments, Theory, and Design Guidelines [99.63555420898554]
この記事では、最適化アルゴリズムを構造化されたトレーニング可能なMLアーキテクチャに変換するフレームワークであるDeep Unfoldingのチュートリアルスタイルの概要を提供する。
推論と学習のための最適化の基礎を概観し、深層展開のための4つの代表的な設計パラダイムを導入し、その反復的な性質から生じる特有なトレーニングスキームについて議論する。
論文 参考訳(メタデータ) (2025-12-03T13:16:35Z) - ConstraintLLM: A Neuro-Symbolic Framework for Industrial-Level Constraint Programming [9.69748612176497]
制約プログラミング(CP)は実世界の制約最適化問題(COP)を解決するための重要な技術である
大きな言語モデル(LLM)を使用してCOPの形式的モデリングを自動的に生成することは、象徴的解決者の助けを借りて、ニューロシンボリックAIを構築するという、有望なアプローチになりつつある。
本稿では,CPモデリングに特化した最初のLLMであるConstraintLLMを紹介する。
CPモデリングのための最初の産業レベルのベンチマークであるIndusCPを構築し,リリースする。
論文 参考訳(メタデータ) (2025-10-07T10:43:39Z) - CALM Before the STORM: Unlocking Native Reasoning for Optimization Modeling [60.55856973678002]
大規模推論モデル (LRM) は、複雑な多段階推論において強力な機能を示した。
既存のドメイン適応手法は、元々は命令調整モデル用に設計されていたが、現代のLEMの高度な推論パターンをうまく利用できなかった。
我々は、最適化モデリングタスクのためのネイティブ推論モード内でのLEMを段階的に洗練するフレームワークである textbfCALM を提案する。
論文 参考訳(メタデータ) (2025-10-05T13:38:31Z) - SCoRE: Streamlined Corpus-based Relation Extraction using Multi-Label Contrastive Learning and Bayesian kNN [0.2812395851874055]
本稿では,モジュール型かつ費用対効果の高い文レベルの関係抽出システムであるSCoREを紹介する。
SCoREは簡単なPLMスイッチングを可能にし、微調整を必要とせず、多様なコーパスやKGにスムーズに適応する。
SCoREは, エネルギー消費を大幅に削減しつつ, 最先端の手法に適合するか, 超越しているかを示す。
論文 参考訳(メタデータ) (2025-07-09T14:33:07Z) - Walk Before You Run! Concise LLM Reasoning via Reinforcement Learning [10.255235456427037]
大規模言語モデル(LLM)における簡潔推論を実現するための簡易かつ効果的な2段階強化学習フレームワークを提案する。
最初の段階は、より多くのトレーニングステップを使用して、グループ相対ポリシー最適化を通じてモデルの推論能力をインセンティブ化することを目的としています。
第2段階は、より少ないトレーニングステップを使用して、簡潔さを明示的に実施し、Longth-aware Group Relative Policy Optimizationを通じて効率を向上させる。
論文 参考訳(メタデータ) (2025-05-27T13:29:51Z) - MCTS-RAG: Enhancing Retrieval-Augmented Generation with Monte Carlo Tree Search [61.11836311160951]
本稿では,知識集約型タスクにおける小言語モデルの推論能力を高める新しいアプローチであるMCTS-RAGを紹介する。
通常、推論から独立して情報を取得する標準的なRAG法とは異なり、MCTS-RAGは構造化推論と適応的検索を組み合わせる。
この統合されたアプローチは意思決定を強化し、幻覚を減らし、事実の正確性と応答の整合性を向上させる。
論文 参考訳(メタデータ) (2025-03-26T17:46:08Z) - Reward-Guided Speculative Decoding for Efficient LLM Reasoning [80.55186052123196]
Reward-Guided Speculative Decoding (RSD)は,大規模言語モデル(LLM)における推論の効率向上を目的とした新しいフレームワークである。
RSDは、厳密な偏りを強制する既存の投機的復号法とは対照的に、制御されたバイアスをハイリワード出力の優先順位付けに取り入れている。
RSDは,対象モデルのみでの復号化に対して,高い効率向上を実現し,並列復号法よりも高い精度を実現している。
論文 参考訳(メタデータ) (2025-01-31T17:19:57Z) - CTC-Assisted LLM-Based Contextual ASR [40.6542391788212]
効率的なフィルタリングアルゴリズムを用いたCTC支援LLM型コンテキストASRモデルを提案する。
我々のモデルは、稀に長い尾の単語を認識することを目的とした、Librispeechテストクリーンおよびテストサブセットにおいて1.27%/3.67%のWER/B-WERと2.72%/8.02%のWERを達成している。
論文 参考訳(メタデータ) (2024-11-10T11:47:50Z) - In-Context Symbolic Regression: Leveraging Large Language Models for Function Discovery [5.2387832710686695]
本稿では,記号回帰のタスクにLarge Language Models(LLM)を利用する,最初の包括的フレームワークを紹介する。
In-Context Symbolic Regression (ICSR) は、外部LLMで関数形式を反復的に洗練し、その係数を外部LLMで決定するSR手法である。
以上の結果から,LLMは与えられたデータに適合するシンボリック方程式の発見に成功し,最高のSRベースラインの総合性能を4つのベンチマークで評価した。
論文 参考訳(メタデータ) (2024-04-29T20:19:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。