論文の概要: Harnessing the Power of Large Language Models for Natural Language to
First-Order Logic Translation
- arxiv url: http://arxiv.org/abs/2305.15541v1
- Date: Wed, 24 May 2023 19:59:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 18:51:28.910044
- Title: Harnessing the Power of Large Language Models for Natural Language to
First-Order Logic Translation
- Title(参考訳): 自然言語から一階論理翻訳への大規模言語モデルの力の調和
- Authors: Yuan Yang, Siheng Xiong, Ali Payani, Ehsan Shareghi and Faramarz Fekri
- Abstract要約: 本稿では,単一GPU上でLoRAを用いたNL-FOL翻訳のためのモデルであるLogicLLaMAを紹介する。
LogicLLaMAは、自然言語を直接FOLルールに変換することができ、GPT-3.5より優れている。
また、GPT-3.5で予測されるFOLルールの修正も可能で、GPT-4と同等の性能をコストのごく一部で達成できる。
- 参考スコア(独自算出の注目度): 11.663380583835288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Translating natural language sentences to first-order logic (NL-FOL
translation) is a longstanding challenge in the NLP and formal logic
literature. This paper introduces LogicLLaMA, a LLaMA-7B model fine-tuned for
NL-FOL translation using LoRA on a single GPU. LogicLLaMA is capable of
directly translating natural language into FOL rules, which outperforms
GPT-3.5. LogicLLaMA is also equipped to correct FOL rules predicted by GPT-3.5,
and can achieve similar performance as GPT-4 with a fraction of the cost. This
correction ability was achieved by a novel supervised fine-tuning (SFT) +
reinforcement learning with human feedback (RLHF) framework, which initially
trains on synthetically perturbed NL-FOL pairs to encourage chain-of-thought
reasoning and then fine-tunes with RLHF on GPT-3.5 outputs using a FOL verifier
as the reward model.
To train LogicLLaMA, we present MALLS (large language $\textbf{M}$odel
gener$\textbf{A}$ted N$\textbf{L}$-FO$\textbf{L}$ pair$\textbf{S}$), a dataset
of 34K high-quality and diverse sentence-level NL-FOL pairs collected from
GPT-4. The dataset was created by implementing a pipeline that prompts GPT-4
for pairs, and dynamically adjusts the prompts to ensure the collection of
pairs with rich and diverse contexts at different levels of complexity, and
verifies the validity of the generated FOL rules. Codes, weights, and data are
available at $\href{https://github.com/gblackout/LogicLLaMA}{{\small
\text{https://github.com/gblackout/LogicLLaMA}}}$.
- Abstract(参考訳): 自然言語文を一階述語論理(NL-FOL翻訳)に変換することは、NLPおよび形式論理文学における長年の課題である。
本稿では,単一GPU上でLoRAを用いたNL-FOL翻訳のためのLLaMA-7BモデルであるLogicLLaMAを紹介する。
LogicLLaMAは、自然言語を直接FOLルールに変換することができ、GPT-3.5より優れている。
logicllamaはまた、gpt-3.5で予測されるfolルールを補正する機能を備えており、コストのごく一部でgpt-4と同等の性能を達成できる。
この補正能力は、最初は合成摂動型NL-FOLペアを訓練し、その後、FOL検証器を報酬モデルとしてGPT-3.5出力上でRLHFを微調整する、教師付き微調整(SFT)+強化学習(RLHF)フレームワークによって達成された。
LogicLLaMAをトレーニングするために、GPT-4から収集した34Kの高品質で多様な文レベルのNL-FOLペアからなるデータセットであるMALLS(大規模言語$\textbf{M}$odel gener$\textbf{A}$ted N$\textbf{L}$-FO$\textbf{L}$ pair$\textbf{S}$)を提示する。
データセットは、ペアに対してGPT-4をプロンプトするパイプラインを実装し、プロンプトを動的に調整することで、さまざまなレベルの複雑さでリッチで多様なコンテキストを持つペアの収集を保証し、生成されたFOLルールの有効性を検証する。
コード、重み、およびデータは$\href{https://github.com/gblackout/LogicLLaMA}{{\small \text{https://github.com/gblackout/LogicLLaMA}}}$で入手できる。
関連論文リスト
- TransLLaMa: LLM-based Simultaneous Translation System [18.27477980076409]
Decoderのみの大規模言語モデル(LLM)は,特別な"待機"トークンを生成することで,入力セグメンテーションを直接制御できることを示す。
これにより、別個の政策の必要性が排除され、LLMは英語とドイツ語と英語とロシア語のSiMTタスクを実行できるようになる。
また, GPT-4 などのクローズドソースモデルの評価を行い, 事前訓練をせずに SiMT タスクの実行を奨励する結果を示した。
論文 参考訳(メタデータ) (2024-02-07T07:39:27Z) - TAT-LLM: A Specialized Language Model for Discrete Reasoning over
Tabular and Textual Data [77.66158066013924]
我々は,言語モデル(LLM)の驚くべきパワーを活用して課題を解決することを検討する。
LLaMA2を微調整し,既存のエキスパートアノテートデータセットから自動生成したトレーニングデータを用いてTAT-LLM言語モデルを開発する。
論文 参考訳(メタデータ) (2024-01-24T04:28:50Z) - Unleashing the Power of Pre-trained Language Models for Offline
Reinforcement Learning [54.682106515794864]
オフライン強化学習(RL)は、事前コンパイルされたデータセットを使用して、ほぼ最適ポリシーを見つけることを目的としている。
本稿では、オフラインRLに事前学習言語モデル(LM)を使用するための決定変換器に基づく一般的なフレームワークである、$textbfMo$tion Control用の$textbfLanguage Models(textbfLaMo$)を紹介する。
経験的な結果から、$textbfLaMo$はスパース・リワードタスクで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-31T16:24:17Z) - BOOST: Harnessing Black-Box Control to Boost Commonsense in LMs'
Generation [60.77990074569754]
本稿では,凍結した事前学習言語モデルを,より汎用的な生成に向けて操る,計算効率のよいフレームワークを提案する。
具体的には、まず、文に常識的スコアを割り当てる参照なし評価器を構築する。
次に、スコアラをコモンセンス知識のオラクルとして使用し、NADOと呼ばれる制御可能な生成法を拡張して補助ヘッドを訓練する。
論文 参考訳(メタデータ) (2023-10-25T23:32:12Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - LeTI: Learning to Generate from Textual Interactions [60.425769582343506]
本稿では,テキストインタラクション(LETI)から学習するLMの可能性を,バイナリラベルによる正当性をチェックするだけでなく,テキストフィードバックを通じて出力中のエラーをピンポイントし,説明する。
私たちの焦点はコード生成タスクであり、そこではモデルが自然言語命令に基づいてコードを生成する。
LETIは、目的のLMを用いて、自然言語命令、LM生成プログラム、テキストフィードバックの結合に基づいて、モデルを反復的に微調整する。
論文 参考訳(メタデータ) (2023-05-17T15:53:31Z) - FOLIO: Natural Language Reasoning with First-Order Logic [111.66631099683815]
FOLIOは、一階述語論理(FOL)アノテーションを備えた自然言語(NL)の推論のためのデータセットである。
FOLペアは論理形式としてFOLを用いた新しいNL-FOL翻訳データセットを構成する。
以上の結果から,GPT-3 davinciは,数発のプロンプトによるランダムな結果よりもわずかに優れていることがわかった。
論文 参考訳(メタデータ) (2022-09-02T06:50:11Z) - Exploring Neural Models for Parsing Natural Language into First-Order
Logic [10.62143644603835]
英文を1次論理(FOL)に解析する際のニューラルモデルの有用性について検討する。
自然言語文が与えられた場合のシーケンスマッピングタスクとしてFOL解析をモデル化し、LSTMを用いて中間表現に符号化し、次に対応するFOL式で述語を逐次生成するデコーダを用いる。
論文 参考訳(メタデータ) (2020-02-16T09:22:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。