論文の概要: Global Constraint LLM Agents for Text-to-Model Translation
- arxiv url: http://arxiv.org/abs/2509.08970v1
- Date: Wed, 10 Sep 2025 20:04:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.131572
- Title: Global Constraint LLM Agents for Text-to-Model Translation
- Title(参考訳): テキスト・モデル翻訳のためのグローバル制約LDMエージェント
- Authors: Junyang Cai, Serdar Kadioglu, Bistra Dilkina,
- Abstract要約: 最適化や満足度問題に関する自然言語の記述は、正しいMiniZincモデルに変換するのが困難である。
この課題に対処するフレームワークをエージェント的アプローチで導入する。
- 参考スコア(独自算出の注目度): 12.20235137210144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural language descriptions of optimization or satisfaction problems are challenging to translate into correct MiniZinc models, as this process demands both logical reasoning and constraint programming expertise. We introduce a framework that addresses this challenge with an agentic approach: multiple specialized large language model (LLM) agents decompose the modeling task by global constraint type. Each agent is dedicated to detecting and generating code for a specific class of global constraint, while a final assembler agent integrates these constraint snippets into a complete MiniZinc model. By dividing the problem into smaller, well-defined sub-tasks, each LLM handles a simpler reasoning challenge, potentially reducing overall complexity. We conduct initial experiments with several LLMs and show better performance against baselines such as one-shot prompting and chain-of-thought prompting. Finally, we outline a comprehensive roadmap for future work, highlighting potential enhancements and directions for improvement.
- Abstract(参考訳): 最適化や満足度の問題に関する自然言語の記述は、論理的推論と制約的プログラミングの専門知識の両方を必要とするため、正しいMiniZincモデルに変換するのは難しい。
我々は,この課題にエージェント的アプローチで対処するフレームワークを紹介した。 グローバル制約型によってモデリングタスクを分解する多言語言語モデル (LLM) エージェントである。
各エージェントは、特定のグローバル制約のクラスに対するコードの検出と生成に特化しており、最終的なアセンブラエージェントは、これらの制約スニペットを完全なMiniZincモデルに統合する。
問題をより小さく、明確に定義されたサブタスクに分割することで、各LSMはより単純な推論問題に対処し、全体的な複雑さを減少させる可能性がある。
いくつかのLDMを用いて初期実験を行い、ワンショットプロンプトやチェーン・オブ・シークレットプロンプトなどのベースラインに対してより良い性能を示す。
最後に、今後の作業に関する包括的なロードマップを概説し、潜在的な拡張と改善の方向性を強調します。
関連論文リスト
- EIFBENCH: Extremely Complex Instruction Following Benchmark for Large Language Models [65.48902212293903]
大規模言語モデル(LLM)を評価するためのEIFBENCH(Extremely Complex Instruction following Benchmark)を提案する。
EIFBENCHにはマルチタスクシナリオが含まれており、多様なタスクタイプを同時に総合的に評価することができる。
また,LLMのマルチタスクワークフローを正確に満たす能力を高めるために,セグメントポリシー最適化(SegPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-06-10T02:39:55Z) - Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - Compositional Hardness of Code in Large Language Models -- A Probabilistic Perspective [6.911107705494142]
大規模言語モデル(LLM)における一般的なプラクティスは、モデルのコンテキストウィンドウ内のタスク全体に対するソリューションをサンプリングすることである。
これまでの研究では、モデルのコンテキスト内でのサブタスク分解がそのようなタスクの解決に有用であることが示されている。
論文 参考訳(メタデータ) (2024-09-26T16:34:35Z) - Chain of Agents: Large Language Models Collaborating on Long-Context Tasks [39.27648679819897]
CoA(Chain-of-Agents)は、自然言語によるマルチエージェントコラボレーションを利用して、情報集約とコンテキスト推論を可能にする新しいフレームワークである。
CoAは読み出しと推論をインターリーブすることで入力全体を処理し、各エージェントに短いコンテキストを割り当てることで、長いコンテキストのフォーカス問題を軽減します。
論文 参考訳(メタデータ) (2024-06-04T23:36:08Z) - FollowBench: A Multi-level Fine-grained Constraints Following Benchmark for Large Language Models [79.62191017182518]
FollowBenchは、大規模言語モデルのベンチマークに続くきめ細かい制約のベンチマークである。
本稿では,初期命令に段階的に1つの制約を付加するマルチレベル機構を提案する。
FollowBench上での13のLLMの評価により,LLMの弱さと今後の研究への道のりを示す。
論文 参考訳(メタデータ) (2023-10-31T12:32:38Z) - Can Large Language Models Understand Real-World Complex Instructions? [54.86632921036983]
大型言語モデル(LLM)は人間の指示を理解することができるが、複雑な命令には耐えられない。
既存のベンチマークでは、LLMが複雑な命令を理解する能力を評価するには不十分である。
複雑な命令を体系的に追従するLSMの能力を評価するためのベンチマークであるCellOを提案する。
論文 参考訳(メタデータ) (2023-09-17T04:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。