論文の概要: Question Answering with LLMs and Learning from Answer Sets
- arxiv url: http://arxiv.org/abs/2509.16590v1
- Date: Sat, 20 Sep 2025 09:26:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.876346
- Title: Question Answering with LLMs and Learning from Answer Sets
- Title(参考訳): LLMによる質問応答と回答集合からの学習
- Authors: Manuel Borroto, Katie Gallagher, Antonio Ielo, Irfan Kareem, Francesco Ricca, Alessandra Russo,
- Abstract要約: 大型言語モデル (LLM) は自然言語の理解に長けているが、明示的なコモンセンス推論に苦慮している。
LLM2LASは,LLMの自然言語理解能力,ILASPからの学習のルール誘導力,および解答集合プログラミング(ASP)の形式的推論強みを効果的に組み合わせたハイブリッドシステムである。
経験的な結果は、ストーリーベースの質問応答ベンチマークにおいて、学習と推論のための自動アプローチの長所と短所を概説する。
- 参考スコア(独自算出の注目度): 42.556688510857335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) excel at understanding natural language but struggle with explicit commonsense reasoning. A recent trend of research suggests that the combination of LLM with robust symbolic reasoning systems can overcome this problem on story-based question answering tasks. In this setting, existing approaches typically depend on human expertise to manually craft the symbolic component. We argue, however, that this component can also be automatically learned from examples. In this work, we introduce LLM2LAS, a hybrid system that effectively combines the natural language understanding capabilities of LLMs, the rule induction power of the Learning from Answer Sets (LAS) system ILASP, and the formal reasoning strengths of Answer Set Programming (ASP). LLMs are used to extract semantic structures from text, which ILASP then transforms into interpretable logic rules. These rules allow an ASP solver to perform precise and consistent reasoning, enabling correct answers to previously unseen questions. Empirical results outline the strengths and weaknesses of our automatic approach for learning and reasoning in a story-based question answering benchmark.
- Abstract(参考訳): 大型言語モデル (LLM) は自然言語の理解に長けているが、明示的なコモンセンス推論に苦慮している。
近年の研究では,LLMとロバストなシンボリック推論システムを組み合わせることで,ストーリーベースの質問応答タスクにおいてこの問題を克服できることが示唆されている。
この設定では、既存のアプローチは通常、象徴的なコンポーネントを手作業で作るための人間の専門知識に依存します。
しかし、このコンポーネントは例から自動的に学習することもできると我々は主張する。
本研究では,LLMの自然言語理解能力を効果的に組み合わせたハイブリッドシステム LLM2LAS,Learning from Answer Sets (LAS) System ILASP,およびAnswer Set Programming (ASP) の形式的推論力を紹介する。
LLMはテキストから意味構造を抽出するために使用され、ILASPは解釈可能な論理規則に変換する。
これらのルールにより、ASPソルバは正確で一貫した推論を実行でき、これまで見つからなかった質問に対する正しい回答を可能にする。
経験的な結果は、ストーリーベースの質問応答ベンチマークにおいて、学習と推論のための自動アプローチの長所と短所を概説する。
関連論文リスト
- LLM+AL: Bridging Large Language Models and Action Languages for Complex Reasoning about Actions [7.575628120822444]
LLM+ALは,LLMの自然言語理解能力を,行動言語の記号的推論強度で橋渡しする手法である。
LLM+AL"はChatGPT-4, Claude 3 Opus, Gemini Ultra 1.0, o1-previewなど,最先端のLLMと比較する。
以上の結果から,LLM+ALは比較的最小限の修正しか行わないが,常に正しい解が得られることが示唆された。
論文 参考訳(メタデータ) (2025-01-01T13:20:01Z) - RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - Language Agents Meet Causality -- Bridging LLMs and Causal World Models [50.79984529172807]
因果表現学習を大規模言語モデルと統合する枠組みを提案する。
このフレームワークは、自然言語表現に関連付けられた因果変数を持つ因果世界モデルを学ぶ。
本研究では,時間的スケールと環境の複雑さを考慮した因果推論と計画課題の枠組みを評価する。
論文 参考訳(メタデータ) (2024-10-25T18:36:37Z) - Multi-Step Reasoning with Large Language Models, a Survey [2.831296564800826]
本稿では,LLMを用いた多段階推論の分野を概観する。
本稿では,多段階推論の生成,評価,制御の異なる方法を特定する分類法を提案する。
論理学、ゲーム、ロボット工学の課題を解くのに成功している。
論文 参考訳(メタデータ) (2024-07-16T08:49:35Z) - How Proficient Are Large Language Models in Formal Languages? An In-Depth Insight for Knowledge Base Question Answering [52.86931192259096]
知識ベース質問回答(KBQA)は,知識ベースにおける事実に基づいた自然言語質問への回答を目的としている。
最近の研究は、論理形式生成のための大規模言語モデル(LLM)の機能を活用して性能を向上させる。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - Reliable Natural Language Understanding with Large Language Models and
Answer Set Programming [0.0]
大規模言語モデル(LLM)は、様々なNLPタスクを解くためにテキストのパターンを利用することができるが、推論を必要とする問題では不足している。
LLMとAnswer Set Programming(ASP)を組み合わせたフレームワークSTARを提案する。
目標指向のASPは、この知識を確実に推論するために使用される。
論文 参考訳(メタデータ) (2023-02-07T22:37:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。