論文の概要: Realtime Generation of Streamliners with Large Language Models
- arxiv url: http://arxiv.org/abs/2408.10268v1
- Date: Fri, 16 Aug 2024 14:17:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 18:28:07.437164
- Title: Realtime Generation of Streamliners with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたストリームライナーのリアルタイム生成
- Authors: Florentina Voboril, Vaidyanathan Peruvemba Ramaswamy, Stefan Szeider,
- Abstract要約: 本稿では,Large Language Models (LLM) を用いた制約プログラミングにおけるストリームライナー生成手法を提案する。
StreamLLMは、MiniZinc制約プログラミング言語で指定された問題に対する合理化器を生成する。
- 参考スコア(独自算出の注目度): 20.580584407211486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents the novel method StreamLLM for generating streamliners in constraint programming using Large Language Models (LLMs). Streamliners are constraints that narrow the search space, enhancing the speed and feasibility of solving complex problems. Traditionally, streamliners were crafted manually or generated through systematically combined atomic constraints with high-effort offline testing. Our approach uses LLMs to propose effective streamliners. Our system StreamLLM generates streamlines for problems specified in the MiniZinc constraint programming language and integrates feedback to the LLM with quick empirical tests. Our rigorous empirical evaluation involving ten problems with several hundreds of test instances shows robust results that are highly encouraging, showcasing the transforming power of LLMs in the domain of constraint programming.
- Abstract(参考訳): 本稿では,Large Language Models (LLM) を用いた制約プログラミングにおいて,ストリームライナーを生成する新しい手法StreamLLMを提案する。
ストリームライナーは、検索スペースを狭め、複雑な問題を解決するスピードと実現可能性を高める制約である。
伝統的に、ストリームライナーは手動で作成されるか、体系的に結合された原子制約と高効率のオフラインテストによって生成される。
提案手法では, LLM を用いて効率的なストリームライナーを提案する。
当社のシステムStreamLLMは,MiniZinc制約言語で指定された問題の合理化を図り,LLMへのフィードバックを高速な経験的テストと統合する。
数百のテストインスタンスを含む10の問題を含む厳密な経験的評価は、制約プログラミングの領域におけるLLMの変換能力を示す、非常に励みやすい結果を示している。
関連論文リスト
- Provenance: A Light-weight Fact-checker for Retrieval Augmented LLM Generation Output [49.893971654861424]
検索強化生成(RAG)から非実効出力を検出する軽量な手法を提案する。
私たちは、二項決定を下すためにしきい値にできる事実性スコアを計算します。
実験の結果, ROC曲線 (AUC) の下では, 関連するオープンソースデータセットの広範囲にわたって高い面積を示すことができた。
論文 参考訳(メタデータ) (2024-11-01T20:44:59Z) - LLMs are Highly-Constrained Biophysical Sequence Optimizers [36.32135215158242]
大規模言語モデル(LLM)は、最近、様々な生物学的タスクにおいて大きな可能性を示している。
本研究では,LLMを高度に制約された二レベル最適化として活用する可能性について検討する。
本稿では,報酬分布と基準分布を円滑に補間する新たなトレーニング目標であるMargin-Aligned expectation (MargE)を提案する。
論文 参考訳(メタデータ) (2024-10-29T17:45:57Z) - Divide-Verify-Refine: Aligning LLM Responses with Complex Instructions [33.18076221854853]
LLMは、複数の制約を持つ複雑な命令に従うのに苦労する。
最近の研究によると、LLM、特にオープンソースモデルは、複数の制約を持つ複雑な命令に従うのに苦労している。
3つのステップでDVR(Divide-Verify-Refine)フレームワークを提案する。
LLama3.1-8Bの制約準拠性を6つの制約で2倍にすることで,フレームワークのパフォーマンスが大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-10-16T04:01:55Z) - Attribute Controlled Fine-tuning for Large Language Models: A Case Study on Detoxification [76.14641982122696]
本稿では,属性制御付き大規模言語モデル(LLM)の制約学習スキーマを提案する。
提案手法は, ベンチマーク上での競合性能と毒性検出タスクを達成しながら, 不適切な応答を少ないLCMに導出することを示す。
論文 参考訳(メタデータ) (2024-10-07T23:38:58Z) - Control Large Language Models via Divide and Conquer [94.48784966256463]
本稿では,Lexically Constrained Generation(LCG)に着目し,大規模言語モデル(LLM)のプロンプトベース制御による制御可能生成について検討する。
我々は,レキシカル制約を満たすためのLLMの性能を,プロンプトベース制御により評価し,下流アプリケーションでの有効性を検証した。
論文 参考訳(メタデータ) (2024-10-06T21:20:06Z) - HITS: High-coverage LLM-based Unit Test Generation via Method Slicing [37.43624865049592]
大規模言語モデル(LLM)は、Javaプロジェクトの単体テストの生成においてうまく振る舞っている。
しかし、プロジェクト内の複雑な焦点メソッドをカバーするパフォーマンスは貧弱である。
そこで本研究では, 焦点メソッドをスライスに分解し, LLMに対してスライス毎にテストケーススライスを生成することを提案する。
論文 参考訳(メタデータ) (2024-08-21T04:14:26Z) - FollowBench: A Multi-level Fine-grained Constraints Following Benchmark for Large Language Models [79.62191017182518]
FollowBenchは、大規模言語モデルのベンチマークに続くきめ細かい制約のベンチマークである。
本稿では,初期命令に段階的に1つの制約を付加するマルチレベル機構を提案する。
FollowBench上での13のLLMの評価により,LLMの弱さと今後の研究への道のりを示す。
論文 参考訳(メタデータ) (2023-10-31T12:32:38Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - RCOT: Detecting and Rectifying Factual Inconsistency in Reasoning by
Reversing Chain-of-Thought [56.558892336235914]
Reversing Chain-of-Thought (RCoT) は、大規模言語モデルの推論能力を改善する新しい手法である。
RCoTは生成したソリューションにおける事実の不整合を自動的に検出し、修正する。
手書きのきめ細かいフィードバックがLLMの推論能力を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-05-19T08:02:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。