論文の概要: Harnessing the Power of Large Language Models for Natural Language to
First-Order Logic Translation
- arxiv url: http://arxiv.org/abs/2305.15541v1
- Date: Wed, 24 May 2023 19:59:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 18:51:28.910044
- Title: Harnessing the Power of Large Language Models for Natural Language to
First-Order Logic Translation
- Title(参考訳): 自然言語から一階論理翻訳への大規模言語モデルの力の調和
- Authors: Yuan Yang, Siheng Xiong, Ali Payani, Ehsan Shareghi and Faramarz Fekri
- Abstract要約: 本稿では,単一GPU上でLoRAを用いたNL-FOL翻訳のためのモデルであるLogicLLaMAを紹介する。
LogicLLaMAは、自然言語を直接FOLルールに変換することができ、GPT-3.5より優れている。
また、GPT-3.5で予測されるFOLルールの修正も可能で、GPT-4と同等の性能をコストのごく一部で達成できる。
- 参考スコア(独自算出の注目度): 11.663380583835288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Translating natural language sentences to first-order logic (NL-FOL
translation) is a longstanding challenge in the NLP and formal logic
literature. This paper introduces LogicLLaMA, a LLaMA-7B model fine-tuned for
NL-FOL translation using LoRA on a single GPU. LogicLLaMA is capable of
directly translating natural language into FOL rules, which outperforms
GPT-3.5. LogicLLaMA is also equipped to correct FOL rules predicted by GPT-3.5,
and can achieve similar performance as GPT-4 with a fraction of the cost. This
correction ability was achieved by a novel supervised fine-tuning (SFT) +
reinforcement learning with human feedback (RLHF) framework, which initially
trains on synthetically perturbed NL-FOL pairs to encourage chain-of-thought
reasoning and then fine-tunes with RLHF on GPT-3.5 outputs using a FOL verifier
as the reward model.
To train LogicLLaMA, we present MALLS (large language $\textbf{M}$odel
gener$\textbf{A}$ted N$\textbf{L}$-FO$\textbf{L}$ pair$\textbf{S}$), a dataset
of 34K high-quality and diverse sentence-level NL-FOL pairs collected from
GPT-4. The dataset was created by implementing a pipeline that prompts GPT-4
for pairs, and dynamically adjusts the prompts to ensure the collection of
pairs with rich and diverse contexts at different levels of complexity, and
verifies the validity of the generated FOL rules. Codes, weights, and data are
available at $\href{https://github.com/gblackout/LogicLLaMA}{{\small
\text{https://github.com/gblackout/LogicLLaMA}}}$.
- Abstract(参考訳): 自然言語文を一階述語論理(NL-FOL翻訳)に変換することは、NLPおよび形式論理文学における長年の課題である。
本稿では,単一GPU上でLoRAを用いたNL-FOL翻訳のためのLLaMA-7BモデルであるLogicLLaMAを紹介する。
LogicLLaMAは、自然言語を直接FOLルールに変換することができ、GPT-3.5より優れている。
logicllamaはまた、gpt-3.5で予測されるfolルールを補正する機能を備えており、コストのごく一部でgpt-4と同等の性能を達成できる。
この補正能力は、最初は合成摂動型NL-FOLペアを訓練し、その後、FOL検証器を報酬モデルとしてGPT-3.5出力上でRLHFを微調整する、教師付き微調整(SFT)+強化学習(RLHF)フレームワークによって達成された。
LogicLLaMAをトレーニングするために、GPT-4から収集した34Kの高品質で多様な文レベルのNL-FOLペアからなるデータセットであるMALLS(大規模言語$\textbf{M}$odel gener$\textbf{A}$ted N$\textbf{L}$-FO$\textbf{L}$ pair$\textbf{S}$)を提示する。
データセットは、ペアに対してGPT-4をプロンプトするパイプラインを実装し、プロンプトを動的に調整することで、さまざまなレベルの複雑さでリッチで多様なコンテキストを持つペアの収集を保証し、生成されたFOLルールの有効性を検証する。
コード、重み、およびデータは$\href{https://github.com/gblackout/LogicLLaMA}{{\small \text{https://github.com/gblackout/LogicLLaMA}}}$で入手できる。
関連論文リスト
- Strategies for Improving NL-to-FOL Translation with LLMs: Data Generation, Incremental Fine-Tuning, and Verification [9.36179617282876]
GPT-4o を用いて ProofWriter データセットの高品質な FOL アノテーション付きサブセットを作成する。
本稿では,LLaMA-2およびMistralモデル上でProofFOLを用いたProofWriterおよびProntoQAデータセットの最先端性能を示す。
論文 参考訳(メタデータ) (2024-09-24T21:24:07Z) - LLM-Generated Natural Language Meets Scaling Laws: New Explorations and Data Augmentation Methods [3.333401582174629]
大規模言語モデル(LLMNL)とヒト自然言語(HNL)を本質的に計算するスケーリング法則を導入する。
実験により,LLMNLにおけるマンデルブロットの法則からわずかに逸脱し,HNLにおける複雑性の優位性を浮き彫りにし,言語スタイルに関する解釈的議論を補足する。
そこで本研究では,ZGPTDAと呼ばれる,スケーリング法則に適合したファジィ計算機構を活用する,少数ショットテキスト分類のための新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2024-06-29T05:40:17Z) - TAT-LLM: A Specialized Language Model for Discrete Reasoning over Tabular and Textual Data [73.29220562541204]
我々は,言語モデル(LLM)の驚くべきパワーを活用して課題を解決することを検討する。
LLaMA2を微調整し,既存のエキスパートアノテートデータセットから自動生成したトレーニングデータを用いてTAT-LLM言語モデルを開発する。
論文 参考訳(メタデータ) (2024-01-24T04:28:50Z) - Unleashing the Power of Pre-trained Language Models for Offline
Reinforcement Learning [54.682106515794864]
オフライン強化学習(RL)は、事前コンパイルされたデータセットを使用して、ほぼ最適ポリシーを見つけることを目的としている。
本稿では、オフラインRLに事前学習言語モデル(LM)を使用するための決定変換器に基づく一般的なフレームワークである、$textbfMo$tion Control用の$textbfLanguage Models(textbfLaMo$)を紹介する。
経験的な結果から、$textbfLaMo$はスパース・リワードタスクで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-31T16:24:17Z) - BOOST: Harnessing Black-Box Control to Boost Commonsense in LMs'
Generation [60.77990074569754]
本稿では,凍結した事前学習言語モデルを,より汎用的な生成に向けて操る,計算効率のよいフレームワークを提案する。
具体的には、まず、文に常識的スコアを割り当てる参照なし評価器を構築する。
次に、スコアラをコモンセンス知識のオラクルとして使用し、NADOと呼ばれる制御可能な生成法を拡張して補助ヘッドを訓練する。
論文 参考訳(メタデータ) (2023-10-25T23:32:12Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - LeTI: Learning to Generate from Textual Interactions [60.425769582343506]
本稿では,テキストインタラクション(LETI)から学習するLMの可能性を,バイナリラベルによる正当性をチェックするだけでなく,テキストフィードバックを通じて出力中のエラーをピンポイントし,説明する。
私たちの焦点はコード生成タスクであり、そこではモデルが自然言語命令に基づいてコードを生成する。
LETIは、目的のLMを用いて、自然言語命令、LM生成プログラム、テキストフィードバックの結合に基づいて、モデルを反復的に微調整する。
論文 参考訳(メタデータ) (2023-05-17T15:53:31Z) - FOLIO: Natural Language Reasoning with First-Order Logic [147.50480350846726]
我々は、自然言語(NL)における推論のための人間注釈付き、論理的に複雑で多様なデータセットであるFOLIOを提示する。
FOLIOは1,430の例(一意の結論)で構成され、それぞれが487の前提のうちの1つと組み合わせて、それぞれの結論の妥当性を導出的に推論する。
NL推論とNL-FOL変換の両方において、複数の最先端言語モデルをベンチマークする。
論文 参考訳(メタデータ) (2022-09-02T06:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。