論文の概要: Enhancing Systematic Decompositional Natural Language Inference Using Informal Logic
- arxiv url: http://arxiv.org/abs/2402.14798v3
- Date: Mon, 12 Aug 2024 23:47:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-14 22:55:00.546259
- Title: Enhancing Systematic Decompositional Natural Language Inference Using Informal Logic
- Title(参考訳): インフォーマル論理を用いた体系的分解型自然言語推論の強化
- Authors: Nathaniel Weir, Kate Sanders, Orion Weller, Shreya Sharma, Dongwei Jiang, Zhengping Jiang, Bhavana Dalvi Mishra, Oyvind Tafjord, Peter Jansen, Peter Clark, Benjamin Van Durme,
- Abstract要約: 我々は,分解包含を注釈付けするための一貫した理論的なアプローチを導入する。
我々の新しいデータセットRDTEは、前回の分解エンターメントデータセットよりもかなり高い内部整合性(+9%)を持つことがわかった。
また,RDTE による知識蒸留によるエンテーメント分類器の訓練や,エンテーメントツリー推論エンジンへの導入により,精度と検証精度が向上することが確認された。
- 参考スコア(独自算出の注目度): 51.967603572656266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent language models enable new opportunities for structured reasoning with text, such as the construction of intuitive, proof-like textual entailment trees without relying on brittle formal logic. However, progress in this direction has been hampered by a long-standing lack of a clear protocol for determining what valid compositional entailment is. This absence causes noisy datasets and limited performance gains by modern neuro-symbolic engines. To address these problems, we formulate a consistent and theoretically grounded approach to annotating decompositional entailment and evaluate its impact on LLM-based textual inference. We find that our new dataset, RDTE (Recognizing Decompositional Textual Entailment), has a substantially higher internal consistency (+9%) than prior decompositional entailment datasets. We also find that training an RDTE-oriented entailment classifier via knowledge distillation and employing it in an entailment tree reasoning engine significantly improves both accuracy and proof quality, illustrating the practical benefit of this advance for textual inference.
- Abstract(参考訳): 最近の言語モデルは、不安定な形式論理に頼らずに、直感的で証明のようなテキストの引き込み木を構築するなど、テキストによる構造化推論の新しい機会を可能にしている。
しかし、この方向の進行は、有効な構成内容を決定するための明確なプロトコルが長い間欠如していることによって妨げられている。
この欠如は、現代のニューロシンボリックエンジンによるノイズの多いデータセットと限られた性能向上を引き起こす。
これらの問題に対処するため,分解的含意を注釈付けするための一貫した理論的なアプローチを定式化し,LLMに基づくテキスト推論への影響を評価する。
新たなデータセットRDTE(Recognizing Decompositional Textual Entailment)は,従来よりも内部一貫性(+9%)が高いことがわかった。
また,RDTE指向の包括的分類器を知識蒸留を用いて訓練し,それを包括木推論エンジンで使用することにより,精度と検証精度を向上し,テキスト推論におけるこの進歩の実用的メリットを実証する。
関連論文リスト
- Reconsidering Degeneration of Token Embeddings with Definitions for Encoder-based Pre-trained Language Models [20.107727903240065]
本研究では,エンコーダに基づく言語モデルのための等方的および意味論的トークン埋め込みを再構築するために,DefindEMBを提案する。
本実験は,Wiktionaryの定義を応用し,そのような埋め込みを再構築する効果を実証する。
論文 参考訳(メタデータ) (2024-08-02T15:00:05Z) - Deja vu: Contrastive Historical Modeling with Prefix-tuning for Temporal Knowledge Graph Reasoning [16.408149489677154]
ChapTERは、テンポラル推論のためのプレフィックスチューニングを備えたコントラスト歴史モデリングフレームワークである。
我々は4つのトランスダクティブと3つの数ショットインダクティブTKGRベンチマークでChapTERを評価した。
論文 参考訳(メタデータ) (2024-03-25T17:25:40Z) - A Logical Pattern Memory Pre-trained Model for Entailment Tree
Generation [23.375260036179252]
コヒーレントで信頼できる説明を生成することは、AI分野における重要な課題である。
論理パターンメモリ事前学習モデル(LMPM)を提案する。
我々のモデルは、基礎となる前提と密接に一致したより一貫性があり合理的な結論を生み出す。
論文 参考訳(メタデータ) (2024-03-11T03:45:09Z) - Multi-modal Causal Structure Learning and Root Cause Analysis [67.67578590390907]
根本原因局所化のためのマルチモーダル因果構造学習手法であるMulanを提案する。
ログ選択言語モデルを利用してログ表現学習を行い、ログシーケンスを時系列データに変換する。
また、モダリティの信頼性を評価し、最終因果グラフを共同学習するための新しいキーパフォーマンスインジケータ対応アテンション機構も導入する。
論文 参考訳(メタデータ) (2024-02-04T05:50:38Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Prompt-based Logical Semantics Enhancement for Implicit Discourse
Relation Recognition [4.7938839332508945]
Inlicit Discourse Relation Recognition (IDRR) のための Prompt-based Logical Semantics Enhancement (PLSE) 法を提案する。
提案手法は,事前学習した言語モデルに対する対話関係に関する知識を,素早い接続予測によってシームレスに注入する。
PDTB 2.0 と CoNLL16 データセットによる実験結果から,本手法は現状の最先端モデルに対して優れた一貫した性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-11-01T08:38:08Z) - MERIt: Meta-Path Guided Contrastive Learning for Logical Reasoning [63.50909998372667]
テキストの論理的ReasonIngに対して,Metaパスを用いたコントラスト学習手法であるMERItを提案する。
2つの新しい戦略が我々の手法の必須要素である。
論文 参考訳(メタデータ) (2022-03-01T11:13:00Z) - LOGEN: Few-shot Logical Knowledge-Conditioned Text Generation with
Self-training [76.90793623822866]
数ショット設定で論理的知識条件付きテキスト生成のための統一的なフレームワークを提案する。
本手法は, 自己学習を利用して, コンテンツと構造整合性に基づく擬似論理形式を抽出する。
論文 参考訳(メタデータ) (2021-12-02T16:49:41Z) - A Dependency Syntactic Knowledge Augmented Interactive Architecture for
End-to-End Aspect-based Sentiment Analysis [73.74885246830611]
エンドツーエンドABSAのためのマルチタスク学習を用いた対話型アーキテクチャを新たに提案する。
このモデルは、よく設計された依存性関係埋め込みグラフ畳み込みネットワーク(DreGcn)を活用することで、構文知識(依存性関係と型)を完全に活用することができる。
3つのベンチマークデータセットの大規模な実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-04T14:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。