論文の概要: Natural Language Deduction through Search over Statement Compositions
- arxiv url: http://arxiv.org/abs/2201.06028v1
- Date: Sun, 16 Jan 2022 12:05:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 13:12:55.942238
- Title: Natural Language Deduction through Search over Statement Compositions
- Title(参考訳): 文構成の探索による自然言語の推論
- Authors: Kaj Bostrom, Zayne Sprague, Swarat Chaudhuri and Greg Durrett
- Abstract要約: 本稿では,タスクを最優先探索で協調したステップに分解する自然言語推論システムを提案する。
実験により,提案システムは検証不可能な仮説と検証不可能な仮説をよりよく区別できることを示した。
- 参考スコア(独自算出の注目度): 43.93269297653265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In settings from fact-checking to question answering, we frequently want to
know whether a collection of evidence entails a hypothesis. Existing methods
primarily focus on end-to-end discriminative versions of this task, but less
work has treated the generative version in which a model searches over the
space of entailed statements to derive the hypothesis. We propose a system for
natural language deduction that decomposes the task into separate steps
coordinated by best-first search, producing a tree of intermediate conclusions
that faithfully reflects the system's reasoning process. Our experiments
demonstrate that the proposed system can better distinguish verifiable
hypotheses from unverifiable ones and produce natural language explanations
that are more internally consistent than those produced by an end-to-end T5
model.
- Abstract(参考訳): 事実チェックから質問応答まで、私たちはしばしば、証拠の集合が仮説を必要とするかどうかを知りたがっています。
既存の手法では、主にこのタスクのエンドツーエンドの識別バージョンに焦点を当てているが、モデルが仮説を導出するために関連するステートメントの空間を探索する生成バージョンを扱う作業は少ない。
そこで本研究では,最初期の探索によってタスクを別々のステップに分解し,システムの推論過程を忠実に反映する中間的な結論のツリーを生成する自然言語推論システムを提案する。
本実験は,検証可能な仮説と検証不能仮説を区別し,エンドツーエンドのt5モデルが生成する仮説よりも内部一貫性のある自然言語説明を生成できることを実証する。
関連論文リスト
- Hypothesis Testing Prompting Improves Deductive Reasoning in Large Language Models [19.879616265315637]
textitHypothesis Testing Promptingは、中間推論ステップ中に結論の仮定、後方推論、事実検証を追加する。
実験によると、仮説テストは効果を著しく改善するだけでなく、より合理的で標準化された推論プロセスを生成する。
論文 参考訳(メタデータ) (2024-05-09T08:46:17Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Deductive Additivity for Planning of Natural Language Proofs [43.93269297653265]
帰納的推論に適合する埋め込み空間によって効率的な計画が可能かどうかを検討する。
その結果, 標準埋め込み手法は, 前提の総和付近に結論を埋め込むことが多いが, 有効性に欠け, 推論の特定のカテゴリをモデル化する能力が欠如していることが示唆された。
論文 参考訳(メタデータ) (2023-07-05T17:45:48Z) - Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - STREET: A Multi-Task Structured Reasoning and Explanation Benchmark [56.555662318619135]
マルチタスクとマルチドメインの自然言語推論と説明ベンチマークを統一的に導入する。
我々は、モデルが質問に答えるだけでなく、ある解の正しさを証明できる中間的な結論を生成するために、問題の前提がどのように使われているかを記述する、段階的に構造化された説明を生成することを期待している。
論文 参考訳(メタデータ) (2023-02-13T22:34:02Z) - Natural Language Deduction with Incomplete Information [43.93269297653265]
当初,すべての前提が明記されていないような不特定設定を処理できる新しいシステムを提案する。
自然言語生成モデルを用いて、他の前提と結論が与えられた前提を誘導的に推論することにより、結論が真であるために必要な証拠の欠落を示唆することができる。
論文 参考訳(メタデータ) (2022-11-01T17:27:55Z) - Probing via Prompting [71.7904179689271]
本稿では,探索をプロンプトタスクとして定式化することで,新しいモデルフリーな探索手法を提案する。
我々は5つの探索課題について実験を行い、我々のアプローチが診断プローブよりも情報抽出に優れていることを示す。
次に,その特性に不可欠な頭部を除去し,言語モデリングにおけるモデルの性能を評価することにより,事前学習のための特定の言語特性の有用性を検討する。
論文 参考訳(メタデータ) (2022-07-04T22:14:40Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - An Interpretable Neuro-Symbolic Reasoning Framework for Task-Oriented
Dialogue Generation [21.106357884651363]
我々は,モデル決定を推論チェーンで正当化する明示的推論を行うために,ニューロシンボリックを導入する。
仮説生成器と推論器からなる2相手法を提案する。
システム全体は、推論チェーンアノテーションを使わずに、生のテキスト対話を利用して訓練される。
論文 参考訳(メタデータ) (2022-03-11T10:44:08Z) - Interactive Model with Structural Loss for Language-based Abductive
Reasoning [36.02450824915494]
帰納的自然言語推論タスク(alpha$NLI)は、原因と事象の間の最も明確な説明を推測するために提案される。
我々はこの新モデルを$alpha$NLI: Interactive Model with Structure Loss (IMSL) と命名する。
IMSL は RoBERTa-large Pretrained model で最高性能を達成し,ACC と AUC はそれぞれ約1%,AUC は5% 向上した。
論文 参考訳(メタデータ) (2021-12-01T05:21:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。