論文の概要: Generating Streamlining Constraints with Large Language Models
- arxiv url: http://arxiv.org/abs/2408.10268v2
- Date: Tue, 28 Jan 2025 21:31:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:52:35.638361
- Title: Generating Streamlining Constraints with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたストリームライニング制約の生成
- Authors: Florentina Voboril, Vaidyanathan Peruvemba Ramaswamy, Stefan Szeider,
- Abstract要約: 合理化制約(あるいは合理化制約)は探索空間を狭め、複雑な制約満足度の問題を解決するスピードと実現可能性を高める。
提案手法は,Large Language Models (LLMs) の創造性を利用して,MiniZinc 制約言語で指定された問題に対する効率的なスリープライナーを提案する。
- 参考スコア(独自算出の注目度): 20.580584407211486
- License:
- Abstract: Streamlining constraints (or streamliners, for short) narrow the search space, enhancing the speed and feasibility of solving complex constraint satisfaction problems. Traditionally, streamliners were crafted manually or generated through systematically combined atomic constraints with high-effort offline testing. Our approach utilizes the creativity of Large Language Models (LLMs) to propose effective streamliners for problems specified in the MiniZinc constraint programming language and integrates feedback to the LLM with quick empirical tests for validation. Evaluated across seven diverse constraint satisfaction problems, our method achieves substantial runtime reductions. We compare the results to obfuscated and disguised variants of the problem to see whether the results depend on LLM memorization. We also analyze whether longer off-line runs improve the quality of streamliners and whether the LLM can propose good combinations of streamliners.
- Abstract(参考訳): 合理化制約(あるいは合理化制約)は探索空間を狭め、複雑な制約満足度問題を解くスピードと実現可能性を高める。
伝統的に、ストリームライナーは手動で作成されるか、体系的に結合された原子制約と高効率のオフラインテストによって生成される。
提案手法は,Large Language Models (LLMs) の創造性を利用して,MiniZinc 制約言語で指定された問題に対する効率的なスリープライナーを提案し,検証のための簡単な経験的テストで LLM へのフィードバックを統合する。
7つの制約満足度問題から評価し,本手法は実行時の大幅な削減を実現する。
結果と難解で偽装した変種を比較し, LLMの暗記に依存するかどうかを検証した。
また, オフライン走行時間が長くなることにより, ストリーナーの品質が向上し, ストリーナーの優れた組み合わせをLLMが提案できるかどうかも検討した。
関連論文リスト
- Provenance: A Light-weight Fact-checker for Retrieval Augmented LLM Generation Output [49.893971654861424]
検索強化生成(RAG)から非実効出力を検出する軽量な手法を提案する。
私たちは、二項決定を下すためにしきい値にできる事実性スコアを計算します。
実験の結果, ROC曲線 (AUC) の下では, 関連するオープンソースデータセットの広範囲にわたって高い面積を示すことができた。
論文 参考訳(メタデータ) (2024-11-01T20:44:59Z) - LLMs are Highly-Constrained Biophysical Sequence Optimizers [36.32135215158242]
大規模言語モデル(LLM)は、最近、様々な生物学的タスクにおいて大きな可能性を示している。
本研究では,LLMを高度に制約された二レベル最適化として活用する可能性について検討する。
本稿では,報酬分布と基準分布を円滑に補間する新たなトレーニング目標であるMargin-Aligned expectation (MargE)を提案する。
論文 参考訳(メタデータ) (2024-10-29T17:45:57Z) - Divide-Verify-Refine: Aligning LLM Responses with Complex Instructions [33.18076221854853]
LLMは、複数の制約を持つ複雑な命令に従うのに苦労する。
最近の研究によると、LLM、特にオープンソースモデルは、複数の制約を持つ複雑な命令に従うのに苦労している。
3つのステップでDVR(Divide-Verify-Refine)フレームワークを提案する。
LLama3.1-8Bの制約準拠性を6つの制約で2倍にすることで,フレームワークのパフォーマンスが大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-10-16T04:01:55Z) - Attribute Controlled Fine-tuning for Large Language Models: A Case Study on Detoxification [76.14641982122696]
本稿では,属性制御付き大規模言語モデル(LLM)の制約学習スキーマを提案する。
提案手法は, ベンチマーク上での競合性能と毒性検出タスクを達成しながら, 不適切な応答を少ないLCMに導出することを示す。
論文 参考訳(メタデータ) (2024-10-07T23:38:58Z) - Control Large Language Models via Divide and Conquer [94.48784966256463]
本稿では,Lexically Constrained Generation(LCG)に着目し,大規模言語モデル(LLM)のプロンプトベース制御による制御可能生成について検討する。
我々は,レキシカル制約を満たすためのLLMの性能を,プロンプトベース制御により評価し,下流アプリケーションでの有効性を検証した。
論文 参考訳(メタデータ) (2024-10-06T21:20:06Z) - HITS: High-coverage LLM-based Unit Test Generation via Method Slicing [37.43624865049592]
大規模言語モデル(LLM)は、Javaプロジェクトの単体テストの生成においてうまく振る舞っている。
しかし、プロジェクト内の複雑な焦点メソッドをカバーするパフォーマンスは貧弱である。
そこで本研究では, 焦点メソッドをスライスに分解し, LLMに対してスライス毎にテストケーススライスを生成することを提案する。
論文 参考訳(メタデータ) (2024-08-21T04:14:26Z) - FollowBench: A Multi-level Fine-grained Constraints Following Benchmark for Large Language Models [79.62191017182518]
FollowBenchは、大規模言語モデルのベンチマークに続くきめ細かい制約のベンチマークである。
本稿では,初期命令に段階的に1つの制約を付加するマルチレベル機構を提案する。
FollowBench上での13のLLMの評価により,LLMの弱さと今後の研究への道のりを示す。
論文 参考訳(メタデータ) (2023-10-31T12:32:38Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - RCOT: Detecting and Rectifying Factual Inconsistency in Reasoning by
Reversing Chain-of-Thought [56.558892336235914]
Reversing Chain-of-Thought (RCoT) は、大規模言語モデルの推論能力を改善する新しい手法である。
RCoTは生成したソリューションにおける事実の不整合を自動的に検出し、修正する。
手書きのきめ細かいフィードバックがLLMの推論能力を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-05-19T08:02:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。