論文の概要: LOREN: Logic Enhanced Neural Reasoning for Fact Verification
- arxiv url: http://arxiv.org/abs/2012.13577v1
- Date: Fri, 25 Dec 2020 13:57:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 04:39:15.947647
- Title: LOREN: Logic Enhanced Neural Reasoning for Fact Verification
- Title(参考訳): LOREN: ファクト検証のための論理的強化ニューラル推論
- Authors: Jiangjie Chen, Qiaoben Bao, Jiaze Chen, Changzhi Sun, Hao Zhou,
Yanghua Xiao, Lei Li
- Abstract要約: 本稿では,論理誘導推論とニューラル推論を統合したファクト検証手法であるLORENを提案する。
単一の推論ユニットを直接検証する代わりに、LORENはそれを質問応答タスクにします。
実験の結果,提案手法は他の方法よりも優れており,73.43%の発熱率を達成した。
- 参考スコア(独自算出の注目度): 24.768868510218002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given a natural language statement, how to verify whether it is supported,
refuted, or unknown according to a large-scale knowledge source like Wikipedia?
Existing neural-network-based methods often regard a sentence as a whole. While
we argue that it is beneficial to decompose a statement into multiple
verifiable logical points. In this paper, we propose LOREN, a novel approach
for fact verification that integrates both Logic guided Reasoning and Neural
inference. The key insight of LOREN is that it decomposes a statement into
multiple reasoning units around the central phrases. Instead of directly
validating a single reasoning unit, LOREN turns it into a question-answering
task and calculates the confidence of every single hypothesis using neural
networks in the embedding space. They are aggregated to make a final prediction
using a neural joint reasoner guided by a set of three-valued logic rules.
LOREN enjoys the additional merit of interpretability -- it is easy to explain
how it reaches certain results with intermediate results and why it makes
mistakes. We evaluate LOREN on FEVER, a public benchmark for fact verification.
Experiments show that our proposed LOREN outperforms other previously published
methods and achieves 73.43% of the FEVER score.
- Abstract(参考訳): 自然言語のステートメントが与えられたら、Wikipediaのような大規模な知識ソースによって、それがサポートされているか、否定されているか、不明であるかを検証するにはどうすればよいのか?
既存のニューラルネットワークベースの手法では、文全体を概観することが多い。
ステートメントを複数の検証可能な論理点に分解することは有益であると主張する一方で。
本稿では,論理的推論とニューラル推論の両方を統合する,事実検証のための新しいアプローチであるlorenを提案する。
LORENの重要な洞察は、文を中央の句の周りの複数の推論単位に分解することである。
単一の推論ユニットを直接検証する代わりに、LORENはそれを質問回答タスクに変換し、埋め込み空間におけるニューラルネットワークを使用して、すべての仮説の信頼度を計算する。
それらは3値論理ルールのセットによって導かれる神経結合推論を用いて最終的な予測を行うために集約される。
loren氏は、解釈可能性という付加的なメリットを享受している -- 中間の結果で結果にどのように到達したか、なぜミスを犯したのかを説明するのは簡単である。
事実検証のための公開ベンチマークであるFEVER上でLORENを評価する。
実験の結果,提案手法は他の方法よりも優れており,73.43%の発熱率を達成した。
関連論文リスト
- Neural Probabilistic Logic Learning for Knowledge Graph Reasoning [10.473897846826956]
本稿では,知識グラフの正確な推論を実現するための推論フレームワークを設計することを目的とする。
本稿では,組込みネットワークの表現力を効果的に向上するスコアリングモジュールを提案する。
我々は,変分推論に基づくマルコフ論理ネットワークを組み込むことにより,モデルの解釈可能性を向上させる。
論文 参考訳(メタデータ) (2024-07-04T07:45:46Z) - Logical Negation Augmenting and Debiasing for Prompt-based Methods [19.879616265315637]
本稿では,一階述語論理推論におけるプロンプトに基づく手法の有効性に着目した。
ボトルネックは論理的否定にあることが分かっています。
提案手法は単純だが効果的なネガゲーション拡張とネガゲーションデバイアスリングである。
論文 参考訳(メタデータ) (2024-05-08T08:05:47Z) - LogicBench: Towards Systematic Evaluation of Logical Reasoning Ability of Large Language Models [52.03659714625452]
最近開発された大規模言語モデル (LLM) は、幅広い言語理解タスクにおいて非常によく機能することが示されている。
しかし、それらは自然言語に対して本当に「理性」があるのだろうか?
この疑問は研究の注目を集めており、コモンセンス、数値、定性的など多くの推論技術が研究されている。
論文 参考訳(メタデータ) (2024-04-23T21:08:49Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [95.07757789781213]
LLMの複雑な推論には2行のアプローチが採用されている。
1行の作業は様々な推論構造を持つLLMを誘導し、構造出力は自然に中間推論ステップと見なすことができる。
他方の行では、LCMのない宣言的解法を用いて推論処理を行い、推論精度は向上するが、解法のブラックボックスの性質により解釈性に欠ける。
具体的には,Prologインタプリタが生成した中間検索ログにアクセスし,人間可読推論に解釈可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Abstract Reasoning via Logic-guided Generation [65.92805601327649]
抽象的推論、すなわち、与えられた観測から複雑なパターンを推測することは、人工知能の中心的な構成要素である。
本稿では,後者のアプローチの枠組みを設計し,人工知能と人間の知能のギャップを埋めることを目的とする。
本稿では,提案する論理の最適化問題として,抽象的推論を削減した新しい生成型DNNフレームワークであるLoGeを提案する。
論文 参考訳(メタデータ) (2021-07-22T07:28:24Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。