論文の概要: Holy Grail 2.0: From Natural Language to Constraint Models
- arxiv url: http://arxiv.org/abs/2308.01589v1
- Date: Thu, 3 Aug 2023 07:48:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 14:57:12.000805
- Title: Holy Grail 2.0: From Natural Language to Constraint Models
- Title(参考訳): Holy Grail 2.0: 自然言語から制約モデルへ
- Authors: Dimos Tsouros, H\'el\`ene Verhaeghe, Serdar Kad{\i}o\u{g}lu and Tias
Guns
- Abstract要約: E・フリューダーは「制約プログラミングは、コンピュータ科学がまだプログラミングの聖杯に最も近いアプローチの1つである」と強調した。
我々は、NL4OPT(Natural Language Processing for Optimization)の課題からインスピレーションを得て、GPTモデルに対する分解ベースのプロンプトアプローチによる早期結果を示す。
- 参考スコア(独自算出の注目度): 9.389618538863392
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Twenty-seven years ago, E. Freuder highlighted that "Constraint programming
represents one of the closest approaches computer science has yet made to the
Holy Grail of programming: the user states the problem, the computer solves
it". Nowadays, CP users have great modeling tools available (like Minizinc and
CPMpy), allowing them to formulate the problem and then let a solver do the
rest of the job, getting closer to the stated goal. However, this still
requires the CP user to know the formalism and respect it. Another significant
challenge lies in the expertise required to effectively model combinatorial
problems. All this limits the wider adoption of CP. In this position paper, we
investigate a possible approach to leverage pre-trained Large Language Models
to extract models from textual problem descriptions. More specifically, we take
inspiration from the Natural Language Processing for Optimization (NL4OPT)
challenge and present early results with a decomposition-based prompting
approach to GPT Models.
- Abstract(参考訳): 20年前、E. Freuderは「制約プログラミングは、コンピュータ科学がまだプログラミングの聖杯に最も近いアプローチの1つであり、ユーザーは問題を述べ、コンピュータはそれを解決している」と強調した。
今日では、cpユーザは優れたモデリングツール(minizincやcpmpyなど)を利用可能で、問題を定式化し、残りの処理をソルバに任せて、目標に近づくことができます。
しかし、それでもCPユーザは形式を知り、それを尊重する必要がある。
もう一つの重要な課題は、組合せ問題を効果的にモデル化するために必要な専門知識である。
これらすべてがcpの普及を制限している。
本稿では,事前学習した大規模言語モデルを用いてテキスト問題記述からモデルを抽出する手法を提案する。
より具体的には、NL4OPT(Natural Language Processing for Optimization)チャレンジからインスピレーションを得て、GPTモデルに対する分解ベースのプロンプトアプローチによる早期結果を示す。
関連論文リスト
- Enhancing Multi-Step Reasoning Abilities of Language Models through Direct Q-Function Optimization [50.485788083202124]
強化学習(Reinforcement Learning, RL)は、大規模言語モデルを人間の好みと整合させ、複雑なタスクを遂行する能力を向上させる上で重要な役割を担っている。
反応生成過程をマルコフ決定プロセス(MDP)として定式化し,ソフトアクター・クリティック(SAC)フレームワークを用いて,言語モデルによって直接パラメータ化されたQ関数を最適化する,直接Q関数最適化(DQO)を提案する。
GSM8KとMATHという2つの数学問題解決データセットの実験結果から、DQOは従来の手法よりも優れており、言語モデルを整合させるための有望なオフライン強化学習手法として確立されている。
論文 参考訳(メタデータ) (2024-10-11T23:29:20Z) - NL2OR: Solve Complex Operations Research Problems Using Natural Language Inputs [9.105616622623629]
オペレーションリサーチ(OR)は、数学的モデルを使用して意思決定を強化するが、これらのモデルを開発するには専門家の知識が必要であり、時間を要する可能性がある。
本稿では,Large Language Model (LLM) の最近の進歩を利用して,自然言語を用いて表現された非専門的ユーザクエリからORソリューションを作成し,編集する手法を提案する。
論文 参考訳(メタデータ) (2024-08-14T03:42:53Z) - Intertwining CP and NLP: The Generation of Unreasonably Constrained Sentences [49.86129209397701]
本稿では,この問題を解決するためにConstraints First Frameworkを提案する。
これは、言語特性とより古典的な制約を組み合わせた制約プログラミング手法によって解決される。
このアプローチの有効性は、より退屈な制約付きテキスト生成問題に取り組むことで実証される。
論文 参考訳(メタデータ) (2024-06-15T17:40:49Z) - Distilling Algorithmic Reasoning from LLMs via Explaining Solution Programs [2.3020018305241337]
大きな言語モデルの推論能力を改善する効果的な方法として、明確な推論経路を蒸留する手法が登場している。
本稿では, LLM から推論能力を抽出する手法を提案する。
提案実験は,ReasonerがCoderによるプログラム実装をより効果的にガイドできることを示す。
論文 参考訳(メタデータ) (2024-04-11T22:19:50Z) - Neuron Patching: Semantic-based Neuron-level Language Model Repair for Code Generation [32.178931149612644]
ulModel ulImprovement via ulNeuron ulTargeting (textscMINT)は、コード言語モデル(LM)を修復するための新しいアプローチである。
textscMINTは有効で効率的で信頼性が高く、最小数のニューロンにパッチを当てることで神経モデルを修正できる。
論文 参考訳(メタデータ) (2023-12-08T20:28:08Z) - Large Language Models as Analogical Reasoners [155.9617224350088]
CoT(Chain-of- Thought)は、言語モデルのプロンプトとして、推論タスク全体で素晴らしいパフォーマンスを示す。
そこで本稿では,大規模言語モデルの推論プロセスを自動的にガイドする,新たなプロンプト手法であるアナログプロンプトを導入する。
論文 参考訳(メタデータ) (2023-10-03T00:57:26Z) - Bounding the Capabilities of Large Language Models in Open Text
Generation with Prompt Constraints [38.69469206527995]
我々は、オープンエンド生成モデルの能力を解析し、有界化するために、即時中心のアプローチをとる。
本稿では,構造的およびスタイリスティックな2つの制約型を用いた解析手法を提案する。
我々の研究成果と文脈内緩和戦略は、今後の研究におけるオープンな課題を明らかにする。
論文 参考訳(メタデータ) (2023-02-17T23:30:28Z) - Inference and Optimization for Engineering and Physical Systems [1.027974860479791]
この博士論文の中心的な対象は、コンピュータ科学と統計力学の分野で異なる名前で知られている。
計算機科学では、有名な21のカープのNPハード問題と呼ばれる。
この論文の最後の章では、さらに一歩進めて、解決したい問題に対する解決策のコントロールを目指しています。
論文 参考訳(メタデータ) (2022-08-29T20:50:40Z) - A Conversational Paradigm for Program Synthesis [110.94409515865867]
本稿では,大規模言語モデルを用いた対話型プログラム合成手法を提案する。
私たちは、自然言語とプログラミング言語のデータに基づいて、CodeGenと呼ばれる大規模な言語モデルのファミリーを訓練します。
本研究は,会話能力の出現と,提案した会話プログラム合成パラダイムの有効性を示すものである。
論文 参考訳(メタデータ) (2022-03-25T06:55:15Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z) - Sufficiently Accurate Model Learning for Planning [119.80502738709937]
本稿では,制約付きSufficiently Accurateモデル学習手法を提案する。
これはそのような問題の例を示し、いくつかの近似解がいかに近いかという定理を提示する。
近似解の質は、関数のパラメータ化、損失と制約関数の滑らかさ、モデル学習におけるサンプルの数に依存する。
論文 参考訳(メタデータ) (2021-02-11T16:27:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。