論文の概要: ConstraintLLM: A Neuro-Symbolic Framework for Industrial-Level Constraint Programming
- arxiv url: http://arxiv.org/abs/2510.05774v1
- Date: Tue, 07 Oct 2025 10:43:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.2124
- Title: ConstraintLLM: A Neuro-Symbolic Framework for Industrial-Level Constraint Programming
- Title(参考訳): ConstraintLLM: 産業レベルの制約プログラミングのためのニューロシンボリックフレームワーク
- Authors: Weichun Shi, Minghao Liu, Wanting Zhang, Langchen Shi, Fuqi Jia, Feifei Ma, Jian Zhang,
- Abstract要約: 制約プログラミング(CP)は実世界の制約最適化問題(COP)を解決するための重要な技術である
大きな言語モデル(LLM)を使用してCOPの形式的モデリングを自動的に生成することは、象徴的解決者の助けを借りて、ニューロシンボリックAIを構築するという、有望なアプローチになりつつある。
本稿では,CPモデリングに特化した最初のLLMであるConstraintLLMを紹介する。
CPモデリングのための最初の産業レベルのベンチマークであるIndusCPを構築し,リリースする。
- 参考スコア(独自算出の注目度): 9.69748612176497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Constraint programming (CP) is a crucial technology for solving real-world constraint optimization problems (COPs), with the advantages of rich modeling semantics and high solving efficiency. Using large language models (LLMs) to generate formal modeling automatically for COPs is becoming a promising approach, which aims to build trustworthy neuro-symbolic AI with the help of symbolic solvers. However, CP has received less attention compared to works based on operations research (OR) models. We introduce ConstraintLLM, the first LLM specifically designed for CP modeling, which is trained on an open-source LLM with multi-instruction supervised fine-tuning. We propose the Constraint-Aware Retrieval Module (CARM) to increase the in-context learning capabilities, which is integrated in a Tree-of-Thoughts (ToT) framework with guided self-correction mechanism. Moreover, we construct and release IndusCP, the first industrial-level benchmark for CP modeling, which contains 140 challenging tasks from various domains. Our experiments demonstrate that ConstraintLLM achieves state-of-the-art solving accuracy across multiple benchmarks and outperforms the baselines by 2x on the new IndusCP benchmark. Code and data are available at: https://github.com/william4s/ConstraintLLM.
- Abstract(参考訳): 制約プログラミング(CP)は、リッチなモデリングセマンティクスと高解法効率の利点により、現実世界の制約最適化問題(COP)を解決するための重要な技術である。
COPのためのフォーマルなモデリングを自動的に生成するために、大きな言語モデル(LLM)を使用することは、信頼できるニューロシンボリックAIを構築することを目的とした、有望なアプローチになりつつある。
しかし、CPはオペレーションリサーチ(OR)モデルに基づく研究に比べて、あまり注目されていない。
本稿では,CPモデリングに特化した最初のLLMであるConstraintLLMを紹介する。
In-context Learning機能を向上させるためにConstraint-Aware Retrieval Module (CARM)を提案する。
IndusCPは、CPモデリングのための最初の産業レベルのベンチマークであり、様々なドメインから140の挑戦的なタスクを含む。
実験の結果、ConstraintLLMは複数のベンチマークで最先端の精度を実現し、新しいIndusCPベンチマークではベースラインを2倍上回っていることがわかった。
コードとデータは、https://github.com/william4s/ConstraintLLM.comで入手できる。
関連論文リスト
- LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.83882149157548]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - CP-Bench: Evaluating Large Language Models for Constraint Modelling [6.250460397062786]
制約プログラミング(CP)は、問題を解くために広く使われているが、その中核となるプロセス、すなわち制約モデリングは、かなりの専門知識を必要とし、広く採用される際のボトルネックと考えられている。
近年,問題記述を実行可能な制約モデルに変換するために,Large Language Models (LLMs) を用いて検討されている。
制約モデリングのための既存の評価データセットは、しばしば、現実のシナリオの多様性を捉えない、小さく、均一で、ドメイン固有のインスタンスに限られる。
この研究はCP-Benchの導入によってこのギャップに対処する。CPコミュニティから得られた様々な既知の問題を含む新しいベンチマークであるCP-Benchは構造化されている。
論文 参考訳(メタデータ) (2025-06-06T12:56:02Z) - Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - Can Reasoning Models Reason about Hardware? An Agentic HLS Perspective [18.791753740931185]
OpenAI o3-mini と DeepSeek-R1 は Chain-of-Thought (CoT) を通じて推論を強化している
本稿では, LLM の推論が高レベル合成(HLS)設計空間探索と最適化の課題に対処できるかどうかを検討する。
論文 参考訳(メタデータ) (2025-03-17T01:21:39Z) - Attribute Controlled Fine-tuning for Large Language Models: A Case Study on Detoxification [76.14641982122696]
本稿では,属性制御付き大規模言語モデル(LLM)の制約学習スキーマを提案する。
提案手法は, ベンチマーク上での競合性能と毒性検出タスクを達成しながら, 不適切な応答を少ないLCMに導出することを示す。
論文 参考訳(メタデータ) (2024-10-07T23:38:58Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Resource-Aware Pareto-Optimal Automated Machine Learning Platform [1.6746303554275583]
新プラットフォーム Resource-Aware AutoML (RA-AutoML)
RA-AutoMLは、フレキシブルで一般化されたアルゴリズムで、複数の目的に合わせた機械学習モデルを構築することができる。
論文 参考訳(メタデータ) (2020-10-30T19:37:48Z) - Teaching the Old Dog New Tricks: Supervised Learning with Constraints [18.88930622054883]
機械学習に制約サポートを追加することは、データ駆動型AIシステムにおいて際立った問題に対処する可能性がある。
既存のアプローチでは、MLトレーニングに制約付き最適化手法を適用し、モデル設計を調整することによって制約満足度を強制するか、あるいは出力を修正するために制約を使用するのが一般的である。
そこで本研究では,教師付きML手法に対する制約満足度を,最先端制約解決器の直接利用により,それぞれ異なる,補完的な制約満足度に基づく戦略について検討する。
論文 参考訳(メタデータ) (2020-02-25T09:47:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。