論文の概要: Logical Reasoning over Natural Language as Knowledge Representation: A
Survey
- arxiv url: http://arxiv.org/abs/2303.12023v1
- Date: Tue, 21 Mar 2023 16:56:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 14:02:41.457551
- Title: Logical Reasoning over Natural Language as Knowledge Representation: A
Survey
- Title(参考訳): 知識表現としての自然言語の論理的推論--サーベイ
- Authors: Zonglin Yang, Xinya Du, Rui Mao, Jinjie Ni, Erik Cambria
- Abstract要約: 本稿では、自然言語を知識表現として利用する論理的推論の新しいパラダイムと、推論として事前学習された言語モデルについて概説する。
この新たなパラダイムは、形式表現の多くの課題を軽減するだけでなく、エンドツーエンドのニューラルメソッドよりもアドバンテージを持つため、有望である。
- 参考スコア(独自算出の注目度): 20.90651746035709
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Logical reasoning is central to human cognition and intelligence. Past
research of logical reasoning within AI uses formal language as knowledge
representation~(and symbolic reasoners). However, reasoning with formal
language has proved challenging~(e.g., brittleness and knowledge-acquisition
bottleneck). This paper provides a comprehensive overview on a new paradigm of
logical reasoning, which uses natural language as knowledge representation~(and
pretrained language models as reasoners), including philosophical definition
and categorization of logical reasoning, advantages of the new paradigm,
benchmarks and methods, challenges of the new paradigm, desirable tasks &
methods in the future, and relation to related NLP fields. This new paradigm is
promising since it not only alleviates many challenges of formal representation
but also has advantages over end-to-end neural methods.
- Abstract(参考訳): 論理的推論は人間の認知と知性の中心である。
aiにおける論理推論の過去の研究では、形式言語を知識表現として使っている。
しかし、形式言語による推論は困難であることが証明されている(例えば、脆さと知識獲得のボトルネック)。
本稿では、論理的推論の哲学的定義と分類、新しいパラダイムの利点、ベンチマークとメソッド、新しいパラダイムの課題、将来の望ましいタスクとメソッド、関連するNLP分野との関係など、自然言語を知識表現として利用する論理的推論の新しいパラダイムについて概観する。
この新しいパラダイムは、形式表現の多くの課題を緩和するだけでなく、エンドツーエンドのニューラルメソッドよりも優れているため、有望である。
関連論文リスト
- Exploring Reasoning Biases in Large Language Models Through Syllogism: Insights from the NeuBAROCO Dataset [5.695579108997392]
本稿では,現在の大規模言語モデルが自然言語の論理的推論をどの程度正確に行うか,という問題について考察する。
我々は,英語と日本語のシロジズム推論問題からなるNeuBAROCOというシロジズムデータセットを提案する。
大きな言語モデルを用いた我々の実験は、これらのモデルが、他のエラー傾向とともに、人間に類似した推論バイアスを示すことを示している。
論文 参考訳(メタデータ) (2024-08-08T12:10:50Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - ChatABL: Abductive Learning via Natural Language Interaction with
ChatGPT [72.83383437501577]
大規模言語モデル(LLM)は、最近数学的な能力において大きな可能性を証明している。
LLMは現在、認識、言語理解、推論能力のブリッジングに困難を抱えている。
本稿では, LLMを帰納学習フレームワークに統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:23:47Z) - Natural Language Reasoning, A Survey [16.80326702160048]
概念的には、NLPにおける自然言語推論の明確な定義を提供する。
我々はNLPにおける自然言語推論に関する総合的な文献レビューを行う。
論文はまた、多段階推論の強力なパラダイムである後方推論を特定し、考察する。
論文 参考訳(メタデータ) (2023-03-26T13:44:18Z) - Language Models as Inductive Reasoners [125.99461874008703]
本稿では,帰納的推論のための新しいパラダイム(タスク)を提案し,自然言語の事実から自然言語規則を誘導する。
タスクのための1.2kルールファクトペアを含むデータセットDEERを作成し,ルールと事実を自然言語で記述する。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。