論文の概要: Holy Grail 2.0: From Natural Language to Constraint Models
- arxiv url: http://arxiv.org/abs/2308.01589v1
- Date: Thu, 3 Aug 2023 07:48:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 14:57:12.000805
- Title: Holy Grail 2.0: From Natural Language to Constraint Models
- Title(参考訳): Holy Grail 2.0: 自然言語から制約モデルへ
- Authors: Dimos Tsouros, H\'el\`ene Verhaeghe, Serdar Kad{\i}o\u{g}lu and Tias
Guns
- Abstract要約: E・フリューダーは「制約プログラミングは、コンピュータ科学がまだプログラミングの聖杯に最も近いアプローチの1つである」と強調した。
我々は、NL4OPT(Natural Language Processing for Optimization)の課題からインスピレーションを得て、GPTモデルに対する分解ベースのプロンプトアプローチによる早期結果を示す。
- 参考スコア(独自算出の注目度): 9.389618538863392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Twenty-seven years ago, E. Freuder highlighted that "Constraint programming
represents one of the closest approaches computer science has yet made to the
Holy Grail of programming: the user states the problem, the computer solves
it". Nowadays, CP users have great modeling tools available (like Minizinc and
CPMpy), allowing them to formulate the problem and then let a solver do the
rest of the job, getting closer to the stated goal. However, this still
requires the CP user to know the formalism and respect it. Another significant
challenge lies in the expertise required to effectively model combinatorial
problems. All this limits the wider adoption of CP. In this position paper, we
investigate a possible approach to leverage pre-trained Large Language Models
to extract models from textual problem descriptions. More specifically, we take
inspiration from the Natural Language Processing for Optimization (NL4OPT)
challenge and present early results with a decomposition-based prompting
approach to GPT Models.
- Abstract(参考訳): 20年前、E. Freuderは「制約プログラミングは、コンピュータ科学がまだプログラミングの聖杯に最も近いアプローチの1つであり、ユーザーは問題を述べ、コンピュータはそれを解決している」と強調した。
今日では、cpユーザは優れたモデリングツール(minizincやcpmpyなど)を利用可能で、問題を定式化し、残りの処理をソルバに任せて、目標に近づくことができます。
しかし、それでもCPユーザは形式を知り、それを尊重する必要がある。
もう一つの重要な課題は、組合せ問題を効果的にモデル化するために必要な専門知識である。
これらすべてがcpの普及を制限している。
本稿では,事前学習した大規模言語モデルを用いてテキスト問題記述からモデルを抽出する手法を提案する。
より具体的には、NL4OPT(Natural Language Processing for Optimization)チャレンジからインスピレーションを得て、GPTモデルに対する分解ベースのプロンプトアプローチによる早期結果を示す。
関連論文リスト
- Distilling Algorithmic Reasoning from LLMs via Explaining Solution Programs [2.3020018305241337]
大きな言語モデルの推論能力を改善する効果的な方法として、明確な推論経路を蒸留する手法が登場している。
本稿では, LLM から推論能力を抽出する手法を提案する。
提案実験は,ReasonerがCoderによるプログラム実装をより効果的にガイドできることを示す。
論文 参考訳(メタデータ) (2024-04-11T22:19:50Z) - Large Language Models as Analogical Reasoners [155.9617224350088]
CoT(Chain-of- Thought)は、言語モデルのプロンプトとして、推論タスク全体で素晴らしいパフォーマンスを示す。
そこで本稿では,大規模言語モデルの推論プロセスを自動的にガイドする,新たなプロンプト手法であるアナログプロンプトを導入する。
論文 参考訳(メタデータ) (2023-10-03T00:57:26Z) - An End-to-End Reinforcement Learning Approach for Job-Shop Scheduling
Problems Based on Constraint Programming [5.070542698701157]
本稿では,CPと強化学習(Reinforcement Learning, RL)を用いてスケジューリング問題を解決する新しいエンドツーエンドアプローチを提案する。
当社のアプローチでは,既存のCPソルバを活用して,プライオリティ・ディスパッチ・ルール(PDR)を学ぶエージェントをトレーニングする。
論文 参考訳(メタデータ) (2023-06-09T08:24:56Z) - Pair Programming with Large Language Models for Sampling and Estimation
of Copulas [0.0]
モンテカルロシミュレーションに基づくコプラによる依存モデリングの例は、最先端の大規模言語モデル(LLM)を用いて開発されている。
この中には、自然言語でのChatGPTとのインタラクションや数学的形式の使用が含まれており、PythonとRで動作するコードの生成につながっている。
注意深い急進的なエンジニアリングを通じて、ChatGPTが生成した成功解と失敗解を分離し、その結果、関連する長所と短所の包括的リストを得る。
論文 参考訳(メタデータ) (2023-03-31T15:02:48Z) - Bounding the Capabilities of Large Language Models in Open Text
Generation with Prompt Constraints [38.69469206527995]
我々は、オープンエンド生成モデルの能力を解析し、有界化するために、即時中心のアプローチをとる。
本稿では,構造的およびスタイリスティックな2つの制約型を用いた解析手法を提案する。
我々の研究成果と文脈内緩和戦略は、今後の研究におけるオープンな課題を明らかにする。
論文 参考訳(メタデータ) (2023-02-17T23:30:28Z) - Inference and Optimization for Engineering and Physical Systems [1.027974860479791]
この博士論文の中心的な対象は、コンピュータ科学と統計力学の分野で異なる名前で知られている。
計算機科学では、有名な21のカープのNPハード問題と呼ばれる。
この論文の最後の章では、さらに一歩進めて、解決したい問題に対する解決策のコントロールを目指しています。
論文 参考訳(メタデータ) (2022-08-29T20:50:40Z) - Confident Adaptive Language Modeling [95.45272377648773]
CALMは、入力と生成時間ごとに異なる量の計算を動的に割り当てるフレームワークである。
ハイパフォーマンスを確実に維持しつつ、計算能力、潜在的スピードアップを最大3ドルまで削減する上で、我々のフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-14T17:00:19Z) - A Conversational Paradigm for Program Synthesis [110.94409515865867]
本稿では,大規模言語モデルを用いた対話型プログラム合成手法を提案する。
私たちは、自然言語とプログラミング言語のデータに基づいて、CodeGenと呼ばれる大規模な言語モデルのファミリーを訓練します。
本研究は,会話能力の出現と,提案した会話プログラム合成パラダイムの有効性を示すものである。
論文 参考訳(メタデータ) (2022-03-25T06:55:15Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z) - Sufficiently Accurate Model Learning for Planning [119.80502738709937]
本稿では,制約付きSufficiently Accurateモデル学習手法を提案する。
これはそのような問題の例を示し、いくつかの近似解がいかに近いかという定理を提示する。
近似解の質は、関数のパラメータ化、損失と制約関数の滑らかさ、モデル学習におけるサンプルの数に依存する。
論文 参考訳(メタデータ) (2021-02-11T16:27:31Z) - Language Models as Few-Shot Learner for Task-Oriented Dialogue Systems [74.8759568242933]
タスク指向対話システムは、自然言語理解(NLU)、対話状態追跡(DST)、対話ポリシー(DP)、自然言語生成(NLG)の4つの連結モジュールを使用する。
研究課題は、データ収集に関連する高コストから最小限のサンプルで各モジュールを学習することである。
我々は,NLU,DP,NLGタスクにおいて,言語モデルの素小ショット能力を評価する。
論文 参考訳(メタデータ) (2020-08-14T08:23:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。