論文の概要: Reasoning is about giving reasons
- arxiv url: http://arxiv.org/abs/2508.14488v1
- Date: Wed, 20 Aug 2025 07:26:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.374878
- Title: Reasoning is about giving reasons
- Title(参考訳): 推論とは理由を与えることです
- Authors: Krunal Shah, Dan Roth,
- Abstract要約: 高い精度の3つの一般的な推論データセットにおいて、自然言語の引数の論理構造を同定し、抽出できることが示される。
我々のアプローチは、自然言語の引数の論理構造に依存するあらゆる推論形式をサポートする。
- 参考スコア(独自算出の注目度): 55.56111618153049
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Convincing someone of the truth value of a premise requires understanding and articulating the core logical structure of the argument which proves or disproves the premise. Understanding the logical structure of an argument refers to understanding the underlying "reasons" which make up the proof or disproof of the premise - as a function of the "logical atoms" in the argument. While it has been shown that transformers can "chain" rules to derive simple arguments, the challenge of articulating the "reasons" remains. Not only do current approaches to chaining rules suffer in terms of their interpretability, they are also quite constrained in their ability to accommodate extensions to theoretically equivalent reasoning tasks - a model trained to chain rules cannot support abduction or identify contradictions. In this work we suggest addressing these shortcomings by identifying an intermediate representation (which we call the Representation of the Logical Structure (RLS) of the argument) that possesses an understanding of the logical structure of a natural language argument - the logical atoms in the argument and the rules incorporating them. Given the logical structure, reasoning is deterministic and easy to compute. Therefore, our approach supports all forms of reasoning that depend on the logical structure of the natural language argument, including arbitrary depths of reasoning, on-the-fly mistake rectification and interactive discussion with respect to an argument. We show that we can identify and extract the logical structure of natural language arguments in three popular reasoning datasets with high accuracies, thus supporting explanation generation and extending the reasoning capabilities significantly.
- Abstract(参考訳): 前提の真理値の誰かを説得するには、前提を証明または否定する議論の中核となる論理構造を理解し、記述する必要がある。
議論の論理的構造を理解することは、議論における「論理的原子」の関数として、前提の証明や反証を構成する根底にある「推論」を理解することを指す。
変圧器は単純な議論を導出するために「連鎖」ルールを導出できることが示されているが、その「推論」を明確にすることの難しさは残されている。
連鎖ルールに対する現在のアプローチは、解釈可能性の点で苦しむだけでなく、理論的に等価な推論タスクへの拡張を許容する能力にもかなり制約がある。
この研究では、自然言語の引数の論理的構造、すなわち引数の論理的原子とそれらを包含する規則を理解する中間表現(議論の論理的構造表現(RLS)と呼ぶ)を同定することで、これらの欠点に対処することを提案する。
論理構造を考えると、推論は決定論的で計算が容易である。
そこで本研究では,任意の推論深度,オンザフライ誤り訂正,対話的議論など,自然言語の議論の論理的構造に依存するあらゆる推論形式をサポートする。
本研究では,高精度な3つの人気推論データセットにおいて,自然言語引数の論理構造を同定し,抽出できることを示し,説明生成と推論能力の大幅な拡張を図った。
関連論文リスト
- Dialogue-based Explanations for Logical Reasoning using Structured Argumentation [0.06138671548064355]
我々は、最先端技術の構造的弱点を特定し、これらの問題に対処するための一般的な議論に基づくアプローチを提案する。
我々の研究は、問合せ応答を計算し、説明するための弁証法として対話モデルを提供する。
これにより、既存の説明形式よりも表現的かつ直感的な弁証的証明木を説明として構築することができる。
論文 参考訳(メタデータ) (2025-02-16T22:26:18Z) - Aristotle: Mastering Logical Reasoning with A Logic-Complete Decompose-Search-Resolve Framework [93.59256448185954]
本稿では論理完全推論フレームワークであるAristotleについて,論理解法,論理解法,論理解法,論理解法の3つの主要なコンポーネントを提案する。
本フレームワークでは,記号表現と論理規則を総合的に推論プロセスに統合する。
いくつかのデータセットの実験結果は、Aristotleが最先端の推論フレームワークを精度と効率の両方で一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2024-12-22T10:14:09Z) - Chain of Logic: Rule-Based Reasoning with Large Language Models [10.017812995997753]
ルールベースの推論は、一連の事実にルールを正確に適用することで、結論を引き出すことができます。
そこで本研究では, 論理の連鎖という, 論理の分解と再構成を通じて規則に基づく推論を導く新しいプロンプト手法を提案する。
我々は、LegalBenchベンチマークから3つの異なる構成規則を含む8つのルールベースの推論タスクにおける論理の連鎖を評価する。
論文 参考訳(メタデータ) (2024-02-16T01:54:43Z) - Formal Proofs as Structured Explanations: Proposing Several Tasks on Explainable Natural Language Inference [0.16317061277457]
自然言語推論の基礎となる推論過程をモデル化できる推論フレームワークを提案する。
このフレームワークは、形式論理におけるよく研究された証明システムであるセマンティック・テーブルー法に基づいている。
本稿では、自然言語推論タスクを構造化された説明で定義する方法について述べる。
論文 参考訳(メタデータ) (2023-11-15T01:24:09Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Certain and Uncertain Inference with Indicative Conditionals [0.3437656066916039]
我々は、真理条件と自然言語条件の確率の3値意味論を開発する。
いずれのフレームワークにおける推論の3価表現と確率表現の体系的対応を示す。
その結果は、条件推論の妥当性を分析するために有益に適用できる条件のセマンティクスと指示の統一的な説明である。
論文 参考訳(メタデータ) (2022-07-17T20:06:00Z) - Discourse-Aware Graph Networks for Textual Logical Reasoning [142.0097357999134]
パッセージレベルの論理関係は命題単位間の係り合いまたは矛盾を表す(例、結論文)
論理的推論QAを解くための論理構造制約モデリングを提案し、談話対応グラフネットワーク(DAGN)を導入する。
ネットワークはまず、インラインの談話接続とジェネリック論理理論を利用した論理グラフを構築し、その後、エッジ推論機構を用いて論理関係を進化させ、グラフ機能を更新することで論理表現を学習する。
論文 参考訳(メタデータ) (2022-07-04T14:38:49Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。