論文の概要: LP-LM: No Hallucinations in Question Answering with Logic Programming
- arxiv url: http://arxiv.org/abs/2502.09212v1
- Date: Thu, 13 Feb 2025 11:48:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:50:26.394936
- Title: LP-LM: No Hallucinations in Question Answering with Logic Programming
- Title(参考訳): LP-LM:論理プログラミングによる質問応答の幻覚
- Authors: Katherine Wu, Yanhong A. Liu,
- Abstract要約: 大規模言語モデル(LLM)は、ユーザクエリに対するヒューマンライクな応答を生成することができる。
本稿では,知識ベース(KB)に含まれる既知の事実の回答を基盤とするLP-LMを提案する。
DCGとタブリングを利用することで、LP-LMは十分な数の文法規則に対して入力文のサイズで線形時間で実行される。
- 参考スコア(独自算出の注目度): 0.30693357740321775
- License:
- Abstract: Large language models (LLMs) are able to generate human-like responses to user queries. However, LLMs exhibit inherent limitations, especially because they hallucinate. This paper introduces LP-LM, a system that grounds answers to questions in known facts contained in a knowledge base (KB), facilitated through semantic parsing in Prolog, and always produces answers that are reliable. LP-LM generates a most probable constituency parse tree along with a corresponding Prolog term for an input question via Prolog definite clause grammar (DCG) parsing. The term is then executed against a KB of natural language sentences also represented as Prolog terms for question answering. By leveraging DCG and tabling, LP-LM runs in linear time in the size of input sentences for sufficiently many grammar rules. Performing experiments comparing LP-LM with current well-known LLMs in accuracy, we show that LLMs hallucinate on even simple questions, unlike LP-LM.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ユーザクエリに対するヒューマンライクな応答を生成することができる。
しかし、LSMは、特に幻覚性のため、固有の制限を示す。
本稿では,知識ベース (KB) に含まれる既知の事実の回答を基盤として,Prolog のセマンティック解析を円滑に行い,常に信頼性の高い回答を生成するLP-LMを提案する。
LP-LM は Prolog Definite節文法 (DCG) 解析を通して入力質問に対応する Prolog 項と共に最も確率の高い定数解析木を生成する。
この用語は、自然言語文のKBに対して実行され、質問応答のためのProlog用語としても表現される。
DCGとタブリングを利用することで、LP-LMは十分な数の文法規則に対して入力文のサイズで線形時間で実行される。
LP-LMと現在のLLMを比較した実験を行い,LP-LMとは異なり,LP-LMは単純な質問に対して幻覚を与えることを示した。
関連論文リスト
- LLMs' Understanding of Natural Language Revealed [0.0]
大規模言語モデル(LLM)は、大規模言語におけるボトムアップ、データ駆動のリバースエンジニアリングにおける大規模な実験の結果である。
私たちはLLMの言語理解能力、彼らが想定する砦をテストすることに重点を置きます。
論文 参考訳(メタデータ) (2024-07-29T01:21:11Z) - A Probabilistic Framework for LLM Hallucination Detection via Belief Tree Propagation [72.93327642336078]
本稿では,幻覚検出のための確率的フレームワークであるBelief Tree Propagation (BTProp)を提案する。
BTPropは、親ステートメントを子ステートメントに分解することで、論理的に関連するステートメントの信念ツリーを導入する。
複数の幻覚検出ベンチマークにおいて,AUROCとAUC-PRにより評価された基準線を3%-9%改善する。
論文 参考訳(メタデータ) (2024-06-11T05:21:37Z) - Log Parsing using LLMs with Self-Generated In-Context Learning and Self-Correction [15.93927602769091]
近年の大規模言語モデル(LLM)の出現は、自然言語やコードを理解する上で強力な能力を示している。
Adaは、自己生成型インコンテキスト学習(SG-ICL)と自己補正を備えたLLMを用いた、効果的で適応的なログ解析フレームワークである。
Adaはゼロショットのシナリオであっても、すべてのメトリクスで最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-06-05T15:31:43Z) - Arithmetic Reasoning with LLM: Prolog Generation & Permutation [2.1867261071129125]
GSM8Kベンチマークでは,Prologに基づく算術的問題解決がCoT生成に優れていることが示されている。
我々は、データ拡張によるより堅牢なLCMトレーニングのための基礎的真理予測をパーミュレートすることを提案する。
論文 参考訳(メタデータ) (2024-05-28T07:13:25Z) - LLMParser: An Exploratory Study on Using Large Language Models for Log Parsing [8.647406441990396]
ログ解析にLarge Language Models (LLMs) を用いることの可能性を検討した。
例えば、Flan-T5-baseはLLaMA-7Bに匹敵する結果を短時間で達成する。
また,他のシステムからのログを用いて事前学習したLLMを用いることで,解析精度が向上するとは限らない。
論文 参考訳(メタデータ) (2024-04-27T20:34:29Z) - How Proficient Are Large Language Models in Formal Languages? An In-Depth Insight for Knowledge Base Question Answering [52.86931192259096]
知識ベース質問回答(KBQA)は,知識ベースにおける事実に基づいた自然言語質問への回答を目的としている。
最近の研究は、論理形式生成のための大規模言語モデル(LLM)の機能を活用して性能を向上させる。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [95.07757789781213]
LLMの複雑な推論には2行のアプローチが採用されている。
1行の作業は様々な推論構造を持つLLMを誘導し、構造出力は自然に中間推論ステップと見なすことができる。
他方の行では、LCMのない宣言的解法を用いて推論処理を行い、推論精度は向上するが、解法のブラックボックスの性質により解釈性に欠ける。
具体的には,Prologインタプリタが生成した中間検索ログにアクセスし,人間可読推論に解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - Logic-LM: Empowering Large Language Models with Symbolic Solvers for
Faithful Logical Reasoning [101.26814728062065]
大規模言語モデル(LLM)は人間のような推論能力を示しているが、それでも複雑な論理的問題に悩まされている。
本稿では,論理問題の解法を改善するために,LLMとシンボリックソルバを統合した新しいフレームワークであるLogic-LMを紹介する。
論文 参考訳(メタデータ) (2023-05-20T22:25:38Z) - Statistical Knowledge Assessment for Large Language Models [79.07989821512128]
ファクトイドの問題に関する様々なプロンプトを考慮すれば、大きな言語モデル(LLM)は事実的に正しい答えを確実に生成できるだろうか?
LLMの事実知識を評価する統計的手法であるKaRRを提案する。
この結果から,同じバックボーン構造を持つLLMの知識はスケーリング法則に則っており,命令追従データに基づくチューニングは,実際に正しいテキストを確実に生成するモデルの能力を損なう場合があることがわかった。
論文 参考訳(メタデータ) (2023-05-17T18:54:37Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。