論文の概要: Logical Reasoning over Natural Language as Knowledge Representation: A
Survey
- arxiv url: http://arxiv.org/abs/2303.12023v2
- Date: Fri, 16 Feb 2024 14:30:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 21:05:28.877038
- Title: Logical Reasoning over Natural Language as Knowledge Representation: A
Survey
- Title(参考訳): 知識表現としての自然言語の論理的推論--サーベイ
- Authors: Zonglin Yang, Xinya Du, Rui Mao, Jinjie Ni, Erik Cambria
- Abstract要約: 本稿では,自然言語を知識表現として,事前学習した言語モデルを推論として利用する論理推論の新しいパラダイムについて概説する。
この新たなパラダイムは、形式表現の多くの課題を軽減するだけでなく、エンドツーエンドのニューラルメソッドよりもアドバンテージを持つため、有望である。
- 参考スコア(独自算出の注目度): 43.29703101875716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Logical reasoning is central to human cognition and intelligence. It includes
deductive, inductive, and abductive reasoning. Past research of logical
reasoning within AI uses formal language as knowledge representation and
symbolic reasoners. However, reasoning with formal language has proved
challenging (e.g., brittleness and knowledge-acquisition bottleneck). This
paper provides a comprehensive overview on a new paradigm of logical reasoning,
which uses natural language as knowledge representation and pretrained language
models as reasoners, including philosophical definition and categorization of
logical reasoning, advantages of the new paradigm, benchmarks and methods,
challenges of the new paradigm, possible future directions, and relation to
related NLP fields. This new paradigm is promising since it not only alleviates
many challenges of formal representation but also has advantages over
end-to-end neural methods. This survey focus on transformer-based LLMs
explicitly working on deductive, inductive, and abductive reasoning over
English representation.
- Abstract(参考訳): 論理的推論は人間の認知と知性の中心である。
帰納的、帰納的、帰納的推論を含む。
AIにおける論理的推論の過去の研究は、形式言語を知識表現と記号的推論として用いた。
しかし、形式言語による推論は困難である(例えば、脆さや知識獲得のボトルネック)。
本稿では,自然言語を知識表現として用いる論理推論の新しいパラダイムの概要と,論理推論の哲学的定義と分類,新しいパラダイムの利点,ベンチマークと手法,新しいパラダイムの挑戦,今後の方向性,関連するnlp分野との関係について述べる。
この新しいパラダイムは、形式表現の多くの課題を緩和するだけでなく、エンドツーエンドのニューラルメソッドよりも優れているため、有望である。
本調査は, 変圧器を用いた LLM に着目し, 英語表現に対する帰納的, 帰納的, 帰納的推論に着目する。
関連論文リスト
- Exploring Reasoning Biases in Large Language Models Through Syllogism: Insights from the NeuBAROCO Dataset [5.695579108997392]
本稿では,現在の大規模言語モデルが自然言語の論理的推論をどの程度正確に行うか,という問題について考察する。
我々は,英語と日本語のシロジズム推論問題からなるNeuBAROCOというシロジズムデータセットを提案する。
大きな言語モデルを用いた我々の実験は、これらのモデルが、他のエラー傾向とともに、人間に類似した推論バイアスを示すことを示している。
論文 参考訳(メタデータ) (2024-08-08T12:10:50Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - ChatABL: Abductive Learning via Natural Language Interaction with
ChatGPT [72.83383437501577]
大規模言語モデル(LLM)は、最近数学的な能力において大きな可能性を証明している。
LLMは現在、認識、言語理解、推論能力のブリッジングに困難を抱えている。
本稿では, LLMを帰納学習フレームワークに統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:23:47Z) - Natural Language Reasoning, A Survey [16.80326702160048]
概念的には、NLPにおける自然言語推論の明確な定義を提供する。
我々はNLPにおける自然言語推論に関する総合的な文献レビューを行う。
論文はまた、多段階推論の強力なパラダイムである後方推論を特定し、考察する。
論文 参考訳(メタデータ) (2023-03-26T13:44:18Z) - Language Models as Inductive Reasoners [125.99461874008703]
本稿では,帰納的推論のための新しいパラダイム(タスク)を提案し,自然言語の事実から自然言語規則を誘導する。
タスクのための1.2kルールファクトペアを含むデータセットDEERを作成し,ルールと事実を自然言語で記述する。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。