論文の概要: Learning as Abduction: Trainable Natural Logic Theorem Prover for
Natural Language Inference
- arxiv url: http://arxiv.org/abs/2010.15909v2
- Date: Tue, 1 Dec 2020 12:02:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 23:03:57.445827
- Title: Learning as Abduction: Trainable Natural Logic Theorem Prover for
Natural Language Inference
- Title(参考訳): アブダクションとしての学習:自然言語推論のための訓練可能な自然論理理論
- Authors: Lasha Abzianidze
- Abstract要約: 自然言語の定理証明器に学習法を実装した。
SICKデータセット上の定理証明器の性能は高い精度を維持しつつも1.4%向上することを示す。
得られた結果は、論理ベースのシステム間での最先端技術と競合する。
- 参考スコア(独自算出の注目度): 0.4962199635155534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tackling Natural Language Inference with a logic-based method is becoming
less and less common. While this might have been counterintuitive several
decades ago, nowadays it seems pretty obvious. The main reasons for such a
conception are that (a) logic-based methods are usually brittle when it comes
to processing wide-coverage texts, and (b) instead of automatically learning
from data, they require much of manual effort for development. We make a step
towards to overcome such shortcomings by modeling learning from data as
abduction: reversing a theorem-proving procedure to abduce semantic relations
that serve as the best explanation for the gold label of an inference problem.
In other words, instead of proving sentence-level inference relations with the
help of lexical relations, the lexical relations are proved taking into account
the sentence-level inference relations. We implement the learning method in a
tableau theorem prover for natural language and show that it improves the
performance of the theorem prover on the SICK dataset by 1.4% while still
maintaining high precision (>94%). The obtained results are competitive with
the state of the art among logic-based systems.
- Abstract(参考訳): 論理ベースのメソッドで自然言語推論に取り組むことはますます一般的になりつつある。
これは数十年前は直感に反するものだったかもしれないが、今日ではかなり明白に思える。
このような考え方の主な理由は
(a)論理ベースの方法は、広義のテキストを処理する場合、通常は不安定である。
b) データから自動的に学習する代わりに、開発には多くの手作業が必要です。
我々は、推論問題のゴールドラベルの最良の説明として機能する意味関係を導出するために、定理を提示する手続きを逆転させることによって、データからの学習を誘拐としてモデル化することで、そのような欠点を克服する一歩を踏み出した。
言い換えると、語彙関係の助けを借りて文レベルの推論関係を証明する代わりに、語彙関係が文レベルの推論関係を考慮に入れることが証明される。
本研究では,自然言語のテーブルー定理証明器に学習法を実装し,SICKデータセット上での定理証明器の性能を1.4%向上し,高い精度 (>94%) を維持した。
得られた結果は、論理ベースのシステム間の技術状況と競合する。
関連論文リスト
- TabVer: Tabular Fact Verification with Natural Logic [11.002475880349452]
本稿では,自然論理の文脈における数値と算術関数の集合論的解釈を提案する。
大規模言語モデルを用いて,テーブル上で関数を実行することで応答するクレームの健全な部分に関する質問を生成することにより,算術式を生成する。
FEVEROUS上の数ショット設定では、71.4の精度を達成し、完全な神経的および象徴的推論モデルの両方を3.4ポイント上回る。
論文 参考訳(メタデータ) (2024-11-02T00:36:34Z) - Scaling Synthetic Logical Reasoning Datasets with Context-Sensitive Declarative Grammars [0.6537995248511139]
複数の言語を結合するフレキシブルなコンテキスト依存ルールを持つ宣言型フレームワークを提案する。
最大32の前提と1つの仮説を選択して一階述語論理問題を構築する。
生成中の意味的制約と述語に対する注意深い英語の動詞化は、自然な英語のタスクを損なうことなく論理的推論を促進することを実証する。
論文 参考訳(メタデータ) (2024-06-16T18:10:49Z) - Enhancing Systematic Decompositional Natural Language Inference Using Informal Logic [51.967603572656266]
我々は,分解包含を注釈付けするための一貫した理論的なアプローチを導入する。
我々の新しいデータセットRDTEは、前回の分解エンターメントデータセットよりもかなり高い内部整合性(+9%)を持つことがわかった。
また,RDTE による知識蒸留によるエンテーメント分類器の訓練や,エンテーメントツリー推論エンジンへの導入により,精度と検証精度が向上することが確認された。
論文 参考訳(メタデータ) (2024-02-22T18:55:17Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - QA-NatVer: Question Answering for Natural Logic-based Fact Verification [11.002475880349452]
我々は自然論理演算子を予測するために質問応答を用いることを提案する。
FEVERのいくつかの設定では、我々のアプローチは最高のベースラインを4.3ドルの精度で上回っている。
人間の評価から,本手法は,従来の自然論理に基づくシステムよりも,誤動作の少ない自然論理演算子でより妥当であることが示唆された。
論文 参考訳(メタデータ) (2023-10-22T06:27:31Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - ChatABL: Abductive Learning via Natural Language Interaction with
ChatGPT [72.83383437501577]
大規模言語モデル(LLM)は、最近数学的な能力において大きな可能性を証明している。
LLMは現在、認識、言語理解、推論能力のブリッジングに困難を抱えている。
本稿では, LLMを帰納学習フレームワークに統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-21T16:23:47Z) - Maieutic Prompting: Logically Consistent Reasoning with Recursive
Explanations [71.2950434944196]
ノイズや一貫性のない言語モデルでさえも問題に対する正しい答えを推測するMaieutic Promptingを開発する。
Maieutic Promptingは最先端のプロンプト法よりも最大20%精度が高い。
論文 参考訳(メタデータ) (2022-05-24T06:36:42Z) - On the Paradox of Learning to Reason from Data [86.13662838603761]
BERTは,同じ問題空間上での他のデータ分布への一般化に失敗しながら,分布内テスト例に対してほぼ完全な精度が得られることを示す。
このパラドックスは、正しい推論関数をエミュレートする学習ではなく、論理的推論問題に本質的に存在する統計的特徴を実際に学習している。
論文 参考訳(メタデータ) (2022-05-23T17:56:48Z) - Non-ground Abductive Logic Programming with Probabilistic Integrity
Constraints [2.624902795082451]
本稿では,変数の確率的推論に対処する,よりリッチな論理言語について考察する。
まず, 分配セマンティックスに基づいて, 全体としての帰納的言語とその意味を提示する。
次に,前述したものを拡張して得られた証明手順を導入し,その健全性と完全性を証明する。
論文 参考訳(メタデータ) (2021-08-06T10:22:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。