論文の概要: ProoFVer: Natural Logic Theorem Proving for Fact Verification
- arxiv url: http://arxiv.org/abs/2108.11357v1
- Date: Wed, 25 Aug 2021 17:23:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-26 13:02:44.654622
- Title: ProoFVer: Natural Logic Theorem Proving for Fact Verification
- Title(参考訳): ProoFVer: ファクト検証を証明した自然論理理論
- Authors: Amrith Krishna, Sebastian Riedel, Andreas Vlachos
- Abstract要約: 本稿では,自然論理を用いた事実検証システムProoFVerを提案する。
証明の生成により、ProoFVerは説明可能なシステムになる。
証明により,人間がProoFVerの判断を正しくシミュレートできることが判明した。
- 参考スコア(独自算出の注目度): 24.61301908217728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose ProoFVer, a proof system for fact verification using natural
logic. The textual entailment model in ProoFVer is a seq2seq model generating
valid natural-logic based logical inferences as its proofs. The generation of
proofs makes ProoFVer an explainable system. The proof consists of iterative
lexical mutations of spans in the claim with spans in a set of retrieved
evidence sentences. Further, each such mutation is marked with an entailment
relation using natural logic operators. The veracity of a claim is determined
solely based on the sequence of natural logic relations present in the proof.
By design, this makes ProoFVer a faithful by construction system that generates
faithful explanations. ProoFVer outperforms existing fact-verification models,
with more than two percent absolute improvements in performance and robustness.
In addition to its explanations being faithful, ProoFVer also scores high on
rationale extraction, with a five point absolute improvement compared to
attention-based rationales in existing models. Finally, we find that humans
correctly simulate ProoFVer's decisions more often using the proofs, than the
decisions of an existing model that directly use the retrieved evidence for
decision making.
- Abstract(参考訳): 本稿では,自然論理を用いた事実検証システムProoFVerを提案する。
ProoFVerのテキストエンテーメントモデルは、証明として有効な自然論理に基づく論理的推論を生成するSeq2seqモデルである。
証明の生成により、ProoFVerは説明可能なシステムになる。
この証明は、クレーム内のスパンの反復的語彙変異と、回収されたエビデンス文の集合のスパンからなる。
さらに、これらの変異は、自然論理演算子を用いたエンテーメント関係でマークされる。
主張の正確性は、証明に存在する自然論理関係の列に基づいてのみ決定される。
設計上は、ProoFVerを忠実な説明を生成する建設システムに忠実にする。
ProoFVerは既存の事実検証モデルより優れており、性能と堅牢性は2%以上向上している。
ProoFVerは、その説明が忠実であることに加えて、既存のモデルにおける注意に基づく合理性よりも5点絶対的な改善によって、有理性抽出の点も高く評価している。
最後に、人間は、検索された証拠を直接意思決定に使用する既存のモデルの判断よりも、より頻繁に証明者の決定をシミュレートする。
関連論文リスト
- TabVer: Tabular Fact Verification with Natural Logic [11.002475880349452]
本稿では,自然論理の文脈における数値と算術関数の集合論的解釈を提案する。
大規模言語モデルを用いて,テーブル上で関数を実行することで応答するクレームの健全な部分に関する質問を生成することにより,算術式を生成する。
FEVEROUS上の数ショット設定では、71.4の精度を達成し、完全な神経的および象徴的推論モデルの両方を3.4ポイント上回る。
論文 参考訳(メタデータ) (2024-11-02T00:36:34Z) - Lean-STaR: Learning to Interleave Thinking and Proving [53.923617816215774]
証明の各ステップに先立って,非公式な思考を生成するために,言語モデルをトレーニングするフレームワークであるLean-STaRを紹介します。
Lean-STaRは、Lean定理証明環境内のminiF2F-testベンチマークで最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-07-14T01:43:07Z) - QA-NatVer: Question Answering for Natural Logic-based Fact Verification [11.002475880349452]
我々は自然論理演算子を予測するために質問応答を用いることを提案する。
FEVERのいくつかの設定では、我々のアプローチは最高のベースラインを4.3ドルの精度で上回っている。
人間の評価から,本手法は,従来の自然論理に基づくシステムよりも,誤動作の少ない自然論理演算子でより妥当であることが示唆された。
論文 参考訳(メタデータ) (2023-10-22T06:27:31Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Generating Natural Language Proofs with Verifier-Guided Search [74.9614610172561]
NLProofS (Natural Language Proof Search) を提案する。
NLProofSは仮説に基づいて関連するステップを生成することを学習する。
EntailmentBank と RuleTaker の最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-25T02:22:30Z) - FaiRR: Faithful and Robust Deductive Reasoning over Natural Language [25.319674132967553]
規則選択、事実選択、知識構成という3つのモジュラーコンポーネントを定義することで、帰納的論理的推論タスクをフレーム化する。
我々は、FaiRRが新しい言語の摂動に対して堅牢であり、既存の推論データセットの以前の研究よりも推論が速いことを観察した。
論文 参考訳(メタデータ) (2022-03-19T07:18:13Z) - multiPRover: Generating Multiple Proofs for Improved Interpretability in
Rule Reasoning [73.09791959325204]
我々は、自然言語の事実と規則の形で明示的な知識を推論することを目的としている言語形式推論の一種に焦点を当てる。
PRoverという名前の最近の研究は、質問に答え、答えを説明する証明グラフを生成することによって、そのような推論を行う。
本研究では,自然言語規則ベースの推論のために複数の証明グラフを生成するという,新たな課題に対処する。
論文 参考訳(メタデータ) (2021-06-02T17:58:35Z) - AmbiFC: Fact-Checking Ambiguous Claims with Evidence [57.7091560922174]
実世界の情報ニーズから10kクレームを抽出したファクトチェックデータセットであるAmbiFCを提示する。
アンビFCの証拠に対する主張を比較する際に,曖昧さから生じる不一致を分析した。
我々は,このあいまいさをソフトラベルで予測するモデルを開発した。
論文 参考訳(メタデータ) (2021-04-01T17:40:08Z) - ProofWriter: Generating Implications, Proofs, and Abductive Statements
over Natural Language [19.917022148887273]
トランスフォーマーは自然言語理論上の論理推論をエミュレートすることが示されている。
ProofWriterと呼ばれる生成モデルは、理論の意味とそれらをサポートする自然言語の証明の両方を確実に生成できることを示しています。
論文 参考訳(メタデータ) (2020-12-24T00:55:46Z) - Measuring Association Between Labels and Free-Text Rationales [60.58672852655487]
解釈可能なNLPでは、説明された例に対するモデルの意思決定プロセスを反映した忠実な理性が必要です。
情報抽出型タスクに対する忠実な抽出合理化のための既存のモデルであるパイプラインは、自由テキスト合理化を必要とするタスクに確実に拡張されないことを示す。
我々は、信頼が確立されていない自由文合理化のための、広く使われている高性能モデルのクラスである、共同予測と合理化のモデルに目を向ける。
論文 参考訳(メタデータ) (2020-10-24T03:40:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。