論文の概要: Natural Language Deduction with Incomplete Information
- arxiv url: http://arxiv.org/abs/2211.00614v1
- Date: Tue, 1 Nov 2022 17:27:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 14:02:22.009337
- Title: Natural Language Deduction with Incomplete Information
- Title(参考訳): 不完全情報を用いた自然言語推論
- Authors: Zayne Sprague, Kaj Bostrom, Swarat Chaudhuri, Greg Durrett
- Abstract要約: 当初,すべての前提が明記されていないような不特定設定を処理できる新しいシステムを提案する。
自然言語生成モデルを用いて、他の前提と結論が与えられた前提を誘導的に推論することにより、結論が真であるために必要な証拠の欠落を示唆することができる。
- 参考スコア(独自算出の注目度): 43.93269297653265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A growing body of work studies how to answer a question or verify a claim by
generating a natural language "proof": a chain of deductive inferences yielding
the answer based on a set of premises. However, these methods can only make
sound deductions when they follow from evidence that is given. We propose a new
system that can handle the underspecified setting where not all premises are
stated at the outset; that is, additional assumptions need to be materialized
to prove a claim. By using a natural language generation model to abductively
infer a premise given another premise and a conclusion, we can impute missing
pieces of evidence needed for the conclusion to be true. Our system searches
over two fringes in a bidirectional fashion, interleaving deductive
(forward-chaining) and abductive (backward-chaining) generation steps. We
sample multiple possible outputs for each step to achieve coverage of the
search space, at the same time ensuring correctness by filtering low-quality
generations with a round-trip validation procedure. Results on a modified
version of the EntailmentBank dataset and a new dataset called Everyday Norms:
Why Not? show that abductive generation with validation can recover premises
across in- and out-of-domain settings.
- Abstract(参考訳): 増大する研究機関は、自然言語を"防備"(deductive inference)として生成することで、質問に答えるか、クレームを検証する方法を研究している。
しかし、これらの手法は、与えられた証拠に従えば、音を抑えることができる。
我々は,すべての前提が最初から記述されていないような不特定な設定を処理可能な新しいシステムを提案する。
自然言語生成モデルを用いて、別の前提と結論が与えられた前提を推論することにより、結論が真であるために必要な証拠の欠如を示唆することができる。
システムでは,2つのフランジを双方向に探索し,導出性(前方鎖)と導出性(後方鎖)を生成する。
探索空間のカバレッジを達成するために,各ステップ毎に複数の可能な出力をサンプリングすると同時に,低品質世代をラウンドトリップ検証手順でフィルタリングすることで精度を確保する。
EntailmentBankデータセットの修正版とEveryday Norms: Why Not?と呼ばれる新しいデータセットの結果。
バリデーションを備えた帰納的生成は、ドメイン内および外部設定間で前提を回復できることを示す。
関連論文リスト
- Deductive Additivity for Planning of Natural Language Proofs [43.93269297653265]
帰納的推論に適合する埋め込み空間によって効率的な計画が可能かどうかを検討する。
その結果, 標準埋め込み手法は, 前提の総和付近に結論を埋め込むことが多いが, 有効性に欠け, 推論の特定のカテゴリをモデル化する能力が欠如していることが示唆された。
論文 参考訳(メタデータ) (2023-07-05T17:45:48Z) - Give Me More Details: Improving Fact-Checking with Latent Retrieval [58.706972228039604]
証拠は、自動化された事実チェックにおいて重要な役割を果たす。
既存のファクトチェックシステムは、エビデンス文が与えられたと仮定するか、検索エンジンが返した検索スニペットを使用する。
資料から得られた全文を証拠として組み込んで,2つの豊富なデータセットを導入することを提案する。
論文 参考訳(メタデータ) (2023-05-25T15:01:19Z) - ReCEval: Evaluating Reasoning Chains via Correctness and Informativeness [67.49087159888298]
ReCEvalは2つの重要な特性(正確性と情報性)を通じて推論チェーンを評価するフレームワークである。
本稿では、ReCEvalが様々なエラータイプを効果的に識別し、従来の手法と比較して顕著な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2023-04-21T02:19:06Z) - Generating Natural Language Proofs with Verifier-Guided Search [74.9614610172561]
NLProofS (Natural Language Proof Search) を提案する。
NLProofSは仮説に基づいて関連するステップを生成することを学習する。
EntailmentBank と RuleTaker の最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-25T02:22:30Z) - Natural Language Deduction through Search over Statement Compositions [43.93269297653265]
本稿では,タスクを最優先探索で協調したステップに分解する自然言語推論システムを提案する。
実験により,提案システムは検証不可能な仮説と検証不可能な仮説をよりよく区別できることを示した。
論文 参考訳(メタデータ) (2022-01-16T12:05:48Z) - multiPRover: Generating Multiple Proofs for Improved Interpretability in
Rule Reasoning [73.09791959325204]
我々は、自然言語の事実と規則の形で明示的な知識を推論することを目的としている言語形式推論の一種に焦点を当てる。
PRoverという名前の最近の研究は、質問に答え、答えを説明する証明グラフを生成することによって、そのような推論を行う。
本研究では,自然言語規則ベースの推論のために複数の証明グラフを生成するという,新たな課題に対処する。
論文 参考訳(メタデータ) (2021-06-02T17:58:35Z) - ProofWriter: Generating Implications, Proofs, and Abductive Statements
over Natural Language [19.917022148887273]
トランスフォーマーは自然言語理論上の論理推論をエミュレートすることが示されている。
ProofWriterと呼ばれる生成モデルは、理論の意味とそれらをサポートする自然言語の証明の両方を確実に生成できることを示しています。
論文 参考訳(メタデータ) (2020-12-24T00:55:46Z) - L2R2: Leveraging Ranking for Abductive Reasoning [65.40375542988416]
学習システムの帰納的推論能力を評価するために,帰納的自然言語推論タスク(alpha$NLI)を提案する。
新たな$L2R2$アプローチは、Learning-to-rankフレームワークの下で提案されている。
ARTデータセットの実験は、公開リーダボードの最先端に到達します。
論文 参考訳(メタデータ) (2020-05-22T15:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。