論文の概要: A Logical Pattern Memory Pre-trained Model for Entailment Tree
Generation
- arxiv url: http://arxiv.org/abs/2403.06410v1
- Date: Mon, 11 Mar 2024 03:45:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 20:21:03.624903
- Title: A Logical Pattern Memory Pre-trained Model for Entailment Tree
Generation
- Title(参考訳): 制約木生成のための論理パターンメモリ事前学習モデル
- Authors: Li Yuan, Yi Cai, Haopeng Ren, Jiexin Wang
- Abstract要約: コヒーレントで信頼できる説明を生成することは、AI分野における重要な課題である。
論理パターンメモリ事前学習モデル(LMPM)を提案する。
我々のモデルは、基礎となる前提と密接に一致したより一貫性があり合理的な結論を生み出す。
- 参考スコア(独自算出の注目度): 23.375260036179252
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generating coherent and credible explanations remains a significant challenge
in the field of AI. In recent years, researchers have delved into the
utilization of entailment trees to depict explanations, which exhibit a
reasoning process of how a hypothesis is deduced from the supporting facts.
However, existing models often overlook the importance of generating
intermediate conclusions with logical consistency from the given facts, leading
to inaccurate conclusions and undermining the overall credibility of entailment
trees. To address this limitation, we propose the logical pattern memory
pre-trained model (LMPM). LMPM incorporates an external memory structure to
learn and store the latent representations of logical patterns, which aids in
generating logically consistent conclusions. Furthermore, to mitigate the
influence of logically irrelevant domain knowledge in the Wikipedia-based data,
we introduce an entity abstraction approach to construct the dataset for
pre-training LMPM. The experimental results highlight the effectiveness of our
approach in improving the quality of entailment tree generation. By leveraging
logical entailment patterns, our model produces more coherent and reasonable
conclusions that closely align with the underlying premises. Code and Data are
released at https://github.com/YuanLi95/T5-LMPM
- Abstract(参考訳): コヒーレントで信頼できる説明を生成することは、AI分野における重要な課題である。
近年、研究者は、仮説が支持事実からどのように導かれるかの推論過程を示す説明を記述するために、entailment treeの利用について研究している。
しかし、既存のモデルは、与えられた事実から論理的整合性のある中間的な結論を生成することの重要性をしばしば見落とし、不正確な結論を導き、包含木全体の信頼性を損なう。
この制限に対処するため、論理パターンメモリ事前学習モデル(LMPM)を提案する。
LMPMは論理パターンの潜在表現を学習し、記憶するために外部メモリ構造を組み込んでおり、論理的に一貫した結論を生成するのに役立つ。
さらに、wikipediaベースのデータにおける論理的に無関係なドメイン知識の影響を軽減するため、lmpmを事前学習するためのデータセットを構築するためのエンティティ抽象化アプローチを提案する。
実験結果から,本手法が樹質向上に有効であることが示された。
論理的包含パターンを活用することで、我々のモデルは、基礎となる前提と密接に一致したより一貫性があり合理的な結論を生み出す。
CodeとDataはhttps://github.com/YuanLi95/T5-LMPMでリリースされる
関連論文リスト
- P-FOLIO: Evaluating and Improving Logical Reasoning with Abundant Human-Written Reasoning Chains [97.25943550933829]
P-FOLIO(P-FOLIO)は、多種多様で複雑な推論連鎖からなる人称注釈付きデータセットである。
我々はP-FOLIOを用いて大規模言語モデル推論機能の評価と改善を行う。
論文 参考訳(メタデータ) (2024-10-11T19:22:57Z) - Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Enhancing Systematic Decompositional Natural Language Inference Using Informal Logic [51.967603572656266]
我々は,分解包含を注釈付けするための一貫した理論的なアプローチを導入する。
我々の新しいデータセットRDTEは、前回の分解エンターメントデータセットよりもかなり高い内部整合性(+9%)を持つことがわかった。
また,RDTE による知識蒸留によるエンテーメント分類器の訓練や,エンテーメントツリー推論エンジンへの導入により,精度と検証精度が向上することが確認された。
論文 参考訳(メタデータ) (2024-02-22T18:55:17Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Learning a Structural Causal Model for Intuition Reasoning in
Conversation [20.243323155177766]
NLP研究の重要な側面である推論は、一般的なモデルによって適切に対処されていない。
我々は、各発話がどのように情報チャネルを受信し、活性化するかを説明する会話認知モデル(CCM)を開発した。
変分推論を利用することで、暗黙的な原因の代用を探索し、その観測不可能性の問題に対処し、証拠の低い境界を通して発話の因果表現を再構築する。
論文 参考訳(メタデータ) (2023-05-28T13:54:09Z) - Investigating the Robustness of Natural Language Generation from Logical
Forms via Counterfactual Samples [30.079030298066847]
事前訓練されたモデルに基づく最先端の手法は、標準テストデータセットで顕著なパフォーマンスを達成した。
これらの手法が、テーブルのヘッダーと論理形式の演算子の間の急激な相関にのみ依存するのではなく、論理的推論を行う方法を学ぶかどうかを疑問視する。
本稿では,ショートカットへの依存を減らすための2つのアプローチを提案する。
論文 参考訳(メタデータ) (2022-10-16T14:14:53Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner [56.08919422452905]
我々はIRGR(Iterative Retrieval-Generation Reasoner)と呼ばれるアーキテクチャを提案する。
本モデルでは,テキストの前提からステップバイステップの説明を体系的に生成することにより,与えられた仮説を説明することができる。
前提条件の検索と細分化木の生成に関する既存のベンチマークを上回り、全体の正しさはおよそ300%向上した。
論文 参考訳(メタデータ) (2022-05-18T21:52:11Z) - Interpretable Data-Based Explanations for Fairness Debugging [7.266116143672294]
Gopherは、バイアスや予期せぬモデルの振る舞いに関するコンパクトで解釈可能な、因果的な説明を生成するシステムである。
我々は,学習データに介入する程度を,サブセットの削除や更新によって定量化する因果責任の概念を導入し,バイアスを解消する。
この概念に基づいて、モデルバイアスを説明するトップkパターンを生成するための効率的なアプローチを開発する。
論文 参考訳(メタデータ) (2021-12-17T20:10:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。