論文の概要: LOREN: Logic Enhanced Neural Reasoning for Fact Verification
- arxiv url: http://arxiv.org/abs/2012.13577v1
- Date: Fri, 25 Dec 2020 13:57:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 04:39:15.947647
- Title: LOREN: Logic Enhanced Neural Reasoning for Fact Verification
- Title(参考訳): LOREN: ファクト検証のための論理的強化ニューラル推論
- Authors: Jiangjie Chen, Qiaoben Bao, Jiaze Chen, Changzhi Sun, Hao Zhou,
Yanghua Xiao, Lei Li
- Abstract要約: 本稿では,論理誘導推論とニューラル推論を統合したファクト検証手法であるLORENを提案する。
単一の推論ユニットを直接検証する代わりに、LORENはそれを質問応答タスクにします。
実験の結果,提案手法は他の方法よりも優れており,73.43%の発熱率を達成した。
- 参考スコア(独自算出の注目度): 24.768868510218002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given a natural language statement, how to verify whether it is supported,
refuted, or unknown according to a large-scale knowledge source like Wikipedia?
Existing neural-network-based methods often regard a sentence as a whole. While
we argue that it is beneficial to decompose a statement into multiple
verifiable logical points. In this paper, we propose LOREN, a novel approach
for fact verification that integrates both Logic guided Reasoning and Neural
inference. The key insight of LOREN is that it decomposes a statement into
multiple reasoning units around the central phrases. Instead of directly
validating a single reasoning unit, LOREN turns it into a question-answering
task and calculates the confidence of every single hypothesis using neural
networks in the embedding space. They are aggregated to make a final prediction
using a neural joint reasoner guided by a set of three-valued logic rules.
LOREN enjoys the additional merit of interpretability -- it is easy to explain
how it reaches certain results with intermediate results and why it makes
mistakes. We evaluate LOREN on FEVER, a public benchmark for fact verification.
Experiments show that our proposed LOREN outperforms other previously published
methods and achieves 73.43% of the FEVER score.
- Abstract(参考訳): 自然言語のステートメントが与えられたら、Wikipediaのような大規模な知識ソースによって、それがサポートされているか、否定されているか、不明であるかを検証するにはどうすればよいのか?
既存のニューラルネットワークベースの手法では、文全体を概観することが多い。
ステートメントを複数の検証可能な論理点に分解することは有益であると主張する一方で。
本稿では,論理的推論とニューラル推論の両方を統合する,事実検証のための新しいアプローチであるlorenを提案する。
LORENの重要な洞察は、文を中央の句の周りの複数の推論単位に分解することである。
単一の推論ユニットを直接検証する代わりに、LORENはそれを質問回答タスクに変換し、埋め込み空間におけるニューラルネットワークを使用して、すべての仮説の信頼度を計算する。
それらは3値論理ルールのセットによって導かれる神経結合推論を用いて最終的な予測を行うために集約される。
loren氏は、解釈可能性という付加的なメリットを享受している -- 中間の結果で結果にどのように到達したか、なぜミスを犯したのかを説明するのは簡単である。
事実検証のための公開ベンチマークであるFEVER上でLORENを評価する。
実験の結果,提案手法は他の方法よりも優れており,73.43%の発熱率を達成した。
関連論文リスト
- Understanding the Reasoning Ability of Language Models From the
Perspective of Reasoning Paths Aggregation [117.32019595678771]
我々は、LMを、事前学習時に見られる間接的推論経路を集約することで、新たな結論を導出すると考えている。
我々は、推論経路を知識/推論グラフ上のランダムウォークパスとして定式化する。
複数のKGおよびMWPデータセットの実験と分析により、ランダムウォークパスに対するトレーニングの効果が明らかにされた。
論文 参考訳(メタデータ) (2024-02-05T18:25:51Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - QA-NatVer: Question Answering for Natural Logic-based Fact Verification [11.002475880349452]
我々は自然論理演算子を予測するために質問応答を用いることを提案する。
FEVERのいくつかの設定では、我々のアプローチは最高のベースラインを4.3ドルの精度で上回っている。
人間の評価から,本手法は,従来の自然論理に基づくシステムよりも,誤動作の少ない自然論理演算子でより妥当であることが示唆された。
論文 参考訳(メタデータ) (2023-10-22T06:27:31Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional,
and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Weakly Supervised Explainable Phrasal Reasoning with Neural Fuzzy Logic [24.868479255640718]
自然言語推論は,対象ラベルであるEntailment,Contradiction,Neutralの2つの文間の論理的関係を決定することを目的としている。
ディープラーニングモデルは、NLIに対する一般的なアプローチとなっているが、解釈可能性と説明性は欠如している。
本研究では,NLIの論理的推論の弱制御による説明可能性について論じる。
論文 参考訳(メタデータ) (2021-09-18T13:04:23Z) - Abstract Reasoning via Logic-guided Generation [65.92805601327649]
抽象的推論、すなわち、与えられた観測から複雑なパターンを推測することは、人工知能の中心的な構成要素である。
本稿では,後者のアプローチの枠組みを設計し,人工知能と人間の知能のギャップを埋めることを目的とする。
本稿では,提案する論理の最適化問題として,抽象的推論を削減した新しい生成型DNNフレームワークであるLoGeを提案する。
論文 参考訳(メタデータ) (2021-07-22T07:28:24Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。