論文の概要: Large-Scale Constraint Generation - Can LLMs Parse Hundreds of Constraints?
- arxiv url: http://arxiv.org/abs/2509.24090v1
- Date: Sun, 28 Sep 2025 21:55:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.625312
- Title: Large-Scale Constraint Generation - Can LLMs Parse Hundreds of Constraints?
- Title(参考訳): 大規模制約生成 - LLMは数百の制約を扱えるか?
- Authors: Matteo Boffa, Jiaxuan You,
- Abstract要約: 大規模制約生成(LSCG: Large-Scale Constraint Generation)は、大規模言語モデルが大規模できめ細かい制約のリストを解析できるかどうかを評価する新しい問題である。
Words Checkerでは、モデル特性(例えば、サイズ、家族)とステアリング技術(例えば、Simple Prompt、Chain of Thought、Best of N)がパフォーマンスに与える影響を評価する。
制約の元のリストを小さなサブセットにパースし、LLMが関連する制約にフォーカスするのに役立つ、小さくて専用のモデルであるFoCusNetを提案する。
- 参考スコア(独自算出の注目度): 20.47853693801739
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent research has explored the constrained generation capabilities of Large Language Models (LLMs) when explicitly prompted by few task-specific requirements. In contrast, we introduce Large-Scale Constraint Generation (LSCG), a new problem that evaluates whether LLMs can parse a large, fine-grained, generic list of constraints. To examine the LLMs' ability to handle an increasing number constraints, we create a practical instance of LSCG, called Words Checker. In Words Checker, we evaluate the impact of model characteristics (e.g., size, family) and steering techniques (e.g., Simple Prompt, Chain of Thought, Best of N) on performance. We also propose FoCusNet, a small and dedicated model that parses the original list of constraints into a smaller subset, helping the LLM focus on relevant constraints. Experiments reveal that existing solutions suffer a significant performance drop as the number of constraints increases, with FoCusNet showing an 8-13% accuracy boost.
- Abstract(参考訳): 近年,大規模言語モデル(LLM)の制約付き生成能力について検討している。
対照的に、LLMが大規模できめ細かな制約リストを解析できるかどうかを評価する新しい問題であるLSCG(Large-Scale Constraint Generation)を導入する。
増大する制約に対処するLLMの能力を調べるために,Words Checkerと呼ばれるLSCGの実践例を作成する。
Words Checkerでは、モデル特性(例えば、サイズ、家族)とステアリング技術(例えば、シンプルプロンプト、思考の連鎖、Nのベスト)がパフォーマンスに与える影響を評価する。
また、制約の元のリストを小さなサブセットにパースし、LLMが関連する制約にフォーカスするのに役立つ、小さくて専用のモデルであるFoCusNetを提案する。
FoCusNetは8-13%の精度向上を示した。
関連論文リスト
- "Don't Do That!": Guiding Embodied Systems through Large Language Model-based Constraint Generation [40.61171036032532]
大規模言語モデル(LLM)は、自然言語から計画問題への複雑な制約を組み込んだロボットナビゲーションへの関心を喚起している。
本稿では,LLMを用いて制約をPython関数に変換する制約生成フレームワークを提案する。
これらの LLM 生成関数は,複雑な数学的制約を正確に記述し,従来の探索アルゴリズムを用いたクラウド表現に応用する。
論文 参考訳(メタデータ) (2025-06-04T22:47:53Z) - Large Language Model Meets Constraint Propagation [42.54350568915404]
GenCPは、予測と制約プログラミング(Constraint Programming, CP)推論を組み合わせることで、流動的なテキストを生成する。
我々は、制約伝搬を可能にするドメイン生成のためのMasked Language Models (MLMs)を統合することにより、GenCPを改善する。
COLLIEベンチマークによる評価は、双方向呼び出しによるドメインプレビューの導入により、GenCPの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2025-05-29T21:18:12Z) - Control Large Language Models via Divide and Conquer [94.48784966256463]
本稿では,Lexically Constrained Generation(LCG)に着目し,大規模言語モデル(LLM)のプロンプトベース制御による制御可能生成について検討する。
我々は,レキシカル制約を満たすためのLLMの性能を,プロンプトベース制御により評価し,下流アプリケーションでの有効性を検証した。
論文 参考訳(メタデータ) (2024-10-06T21:20:06Z) - FollowBench: A Multi-level Fine-grained Constraints Following Benchmark for Large Language Models [79.62191017182518]
FollowBenchは、大規模言語モデルのベンチマークに続くきめ細かい制約のベンチマークである。
本稿では,初期命令に段階的に1つの制約を付加するマルチレベル機構を提案する。
FollowBench上での13のLLMの評価により,LLMの弱さと今後の研究への道のりを示す。
論文 参考訳(メタデータ) (2023-10-31T12:32:38Z) - Evaluating, Understanding, and Improving Constrained Text Generation for Large Language Models [49.74036826946397]
本研究では,大言語モデル(LLM)の制約付きテキスト生成について検討する。
本研究は主に,制約を語彙型,構造型,関係型に分類するオープンソース LLM に重点を置いている。
その結果、LLMの能力と不足を照らし、制約を取り入れ、制約付きテキスト生成における将来の発展に対する洞察を提供する。
論文 参考訳(メタデータ) (2023-10-25T03:58:49Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。