論文の概要: Neural Unification for Logic Reasoning over Natural Language
- arxiv url: http://arxiv.org/abs/2109.08460v1
- Date: Fri, 17 Sep 2021 10:48:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-20 19:59:54.460598
- Title: Neural Unification for Logic Reasoning over Natural Language
- Title(参考訳): 自然言語による論理推論のためのニューラル統一
- Authors: Gabriele Picco, Hoang Thanh Lam, Marco Luca Sbodio, Vanessa Lopez
Garcia
- Abstract要約: 自動定理証明(Automated Theorem Proving)は、いくつかの予想(クエリ)が一連の公理(事実と規則)の論理的な結果であることを示すことができるコンピュータプログラムの開発を扱う。
近年のアプローチでは、自然言語(英語)で表される公理の予想を導出するトランスフォーマーに基づくアーキテクチャが提案されている。
本研究は, 一般化の項における最先端結果を実現するニューラルユニファイザという, 新たなアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.28675177318965034
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated Theorem Proving (ATP) deals with the development of computer
programs being able to show that some conjectures (queries) are a logical
consequence of a set of axioms (facts and rules). There exists several
successful ATPs where conjectures and axioms are formally provided (e.g.
formalised as First Order Logic formulas). Recent approaches, such as (Clark et
al., 2020), have proposed transformer-based architectures for deriving
conjectures given axioms expressed in natural language (English). The
conjecture is verified through a binary text classifier, where the transformers
model is trained to predict the truth value of a conjecture given the axioms.
The RuleTaker approach of (Clark et al., 2020) achieves appealing results both
in terms of accuracy and in the ability to generalize, showing that when the
model is trained with deep enough queries (at least 3 inference steps), the
transformers are able to correctly answer the majority of queries (97.6%) that
require up to 5 inference steps. In this work we propose a new architecture,
namely the Neural Unifier, and a relative training procedure, which achieves
state-of-the-art results in term of generalisation, showing that mimicking a
well-known inference procedure, the backward chaining, it is possible to answer
deep queries even when the model is trained only on shallow ones. The approach
is demonstrated in experiments using a diverse set of benchmark data.
- Abstract(参考訳): 自動定理証明 (automated theorem proving, atp) は、いくつかの予想(列)が一連の公理(事実と規則)の論理的帰結であることを示すことができるコンピュータプログラムの開発を扱う。
ATPはいくつかの成功し、予想と公理が正式に提供される(例えば、一階論理公式として形式化される)。
近年のアプローチ(clark et al., 2020)では、自然言語(英語)で表現された公理を導出するためのトランスフォーマーベースのアーキテクチャが提案されている。
この予想はバイナリテキスト分類器によって検証され、トランスフォーマーモデルは公理が与えられた予想の真理値を予測するように訓練される。
RuleTaker のアプローチ (Clark et al., 2020) は精度と一般化の両面で魅力的な結果をもたらし、モデルが十分に深いクエリ(少なくとも3つの推論ステップ)で訓練された場合、トランスフォーマーは最大5つの推論ステップを必要とするクエリの大多数 (97.6%) に正しく答えることができることを示した。
本研究では,よく知られた推論手順である後方連鎖法を模倣することで,モデルが浅いものにのみ訓練された場合でも,深い問い合わせに答えることができることを示す,一般化の観点で最先端結果を達成するニューラル・ユニファイザ(neural unifier)と相対的トレーニング手順を提案する。
このアプローチは、様々なベンチマークデータを用いた実験で実証されている。
関連論文リスト
- Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
形式言語理論は、特に認識者に関するものである。
代わりに、非公式な意味でのみ類似したプロキシタスクを使用するのが一般的である。
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価することで、このミスマッチを補正する。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - QA-NatVer: Question Answering for Natural Logic-based Fact Verification [11.002475880349452]
我々は自然論理演算子を予測するために質問応答を用いることを提案する。
FEVERのいくつかの設定では、我々のアプローチは最高のベースラインを4.3ドルの精度で上回っている。
人間の評価から,本手法は,従来の自然論理に基づくシステムよりも,誤動作の少ない自然論理演算子でより妥当であることが示唆された。
論文 参考訳(メタデータ) (2023-10-22T06:27:31Z) - TRIGO: Benchmarking Formal Mathematical Proof Reduction for Generative
Language Models [68.65075559137608]
本稿では, ATP ベンチマーク TRIGO を提案する。このベンチマークでは, ステップバイステップの証明で三角法式を縮小するだけでなく, 論理式上で生成する LM の推論能力を評価する。
我々は、Webから三角法式とその縮小フォームを収集し、手作業で単純化プロセスに注釈を付け、それをリーン形式言語システムに翻訳する。
我々はLean-Gymに基づく自動生成装置を開発し、モデルの一般化能力を徹底的に分析するために、様々な困難と分布のデータセット分割を作成する。
論文 参考訳(メタデータ) (2023-10-16T08:42:39Z) - Dual Box Embeddings for the Description Logic EL++ [16.70961576041243]
知識グラフ(KG)と同様に、知識グラフはしばしば不完全であり、それらの維持と構築は困難であることが証明された。
KGsと同様に、有望なアプローチは、潜在ベクトル空間への埋め込みを学習し、基礎となるDLのセマンティクスに固執することである。
そこで本研究では,概念と役割をボックスとして表現した,DL EL++用のBox$2$ELという新しいオントロジー埋め込み手法を提案する。
論文 参考訳(メタデータ) (2023-01-26T14:13:37Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Language Models Are Greedy Reasoners: A Systematic Formal Analysis of
Chain-of-Thought [10.524051272257614]
大規模言語モデル(LLM)は、チェーン・オブ・シークレット・プロンプトが与えられた顕著な推論能力を示している。
本稿では, PrOntoQAと呼ばれる合成質問応答データセットを提案し, それぞれの例を合成世界モデルとして生成する。
これにより、生成された連鎖を形式解析の象徴的な証明に解析することができる。
論文 参考訳(メタデータ) (2022-10-03T21:34:32Z) - Non-ground Abductive Logic Programming with Probabilistic Integrity
Constraints [2.624902795082451]
本稿では,変数の確率的推論に対処する,よりリッチな論理言語について考察する。
まず, 分配セマンティックスに基づいて, 全体としての帰納的言語とその意味を提示する。
次に,前述したものを拡張して得られた証明手順を導入し,その健全性と完全性を証明する。
論文 参考訳(メタデータ) (2021-08-06T10:22:12Z) - PRover: Proof Generation for Interpretable Reasoning over Rules [81.40404921232192]
本稿では,ルールベース上の二項質問に応答し,対応する証明を生成するトランスフォーマーモデルを提案する。
本モデルは,効率的な制約付き学習パラダイムを用いて,証明グラフに対応するノードやエッジを予測できることを学習する。
我々は、QAと証明生成のための有望な結果を示すために、合成、手書き、人文による規則ベースの実験を行う。
論文 参考訳(メタデータ) (2020-10-06T15:47:53Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z) - Transformers as Soft Reasoners over Language [33.291806251021185]
本稿では,事実と規則を自然言語文として提供し,形式表現をバイパスする問題について検討する。
我々は、合成されたデータを用いて、これらの文に対する推論(または推論)をエミュレートするようにトランスフォーマーを訓練する。
RuleTakersと呼ばれる私たちのモデルは、この種の言語に対するソフトな推論が学習可能であるという、最初の実証的なデモンストレーションを提供します。
論文 参考訳(メタデータ) (2020-02-14T04:23:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。