論文の概要: Logiformer: A Two-Branch Graph Transformer Network for Interpretable
Logical Reasoning
- arxiv url: http://arxiv.org/abs/2205.00731v1
- Date: Mon, 2 May 2022 08:34:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 22:00:13.671901
- Title: Logiformer: A Two-Branch Graph Transformer Network for Interpretable
Logical Reasoning
- Title(参考訳): Logiformer: 解釈可能な論理推論のための2分岐グラフトランスネットワーク
- Authors: Fangzhi Xu, Qika Lin, Jun Liu, Yudai Pan, Lingling Zhang
- Abstract要約: テキストの論理的推論に2分岐グラフ変換器ネットワークを利用するエンドツーエンドモデルLogiformerを提案する。
テキストを2つの論理単位に分割し,それぞれ論理グラフと構文グラフを構築する。
推論プロセスは、人間の認知と整合した論理単位を用いることで解釈可能性を提供する。
- 参考スコア(独自算出の注目度): 10.716971124214332
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine reading comprehension has aroused wide concerns, since it explores
the potential of model for text understanding. To further equip the machine
with the reasoning capability, the challenging task of logical reasoning is
proposed. Previous works on logical reasoning have proposed some strategies to
extract the logical units from different aspects. However, there still remains
a challenge to model the long distance dependency among the logical units.
Also, it is demanding to uncover the logical structures of the text and further
fuse the discrete logic to the continuous text embedding. To tackle the above
issues, we propose an end-to-end model Logiformer which utilizes a two-branch
graph transformer network for logical reasoning of text. Firstly, we introduce
different extraction strategies to split the text into two sets of logical
units, and construct the logical graph and the syntax graph respectively. The
logical graph models the causal relations for the logical branch while the
syntax graph captures the co-occurrence relations for the syntax branch.
Secondly, to model the long distance dependency, the node sequence from each
graph is fed into the fully connected graph transformer structures. The two
adjacent matrices are viewed as the attention biases for the graph transformer
layers, which map the discrete logical structures to the continuous text
embedding space. Thirdly, a dynamic gate mechanism and a question-aware
self-attention module are introduced before the answer prediction to update the
features. The reasoning process provides the interpretability by employing the
logical units, which are consistent with human cognition. The experimental
results show the superiority of our model, which outperforms the
state-of-the-art single model on two logical reasoning benchmarks.
- Abstract(参考訳): 機械読解は、テキスト理解のモデルの可能性を探究するため、幅広い関心を喚起している。
さらに、機械に推論能力を持たせるため、論理推論の難易度の高いタスクを提案する。
論理推論に関する以前の研究は、異なる側面から論理単位を抽出するいくつかの戦略を提案している。
しかし、論理単位間の長距離依存をモデル化することは依然として困難である。
また、テキストの論理構造を解明し、離散論理を連続的なテキスト埋め込みに融合させることも要求されている。
上記の問題に対処するために,テキストの論理的推論に2分岐グラフトランスフォーマネットワークを利用するエンドツーエンドモデルLogiformerを提案する。
まず,テキストを2つの論理単位に分割するための異なる抽出戦略を導入し,それぞれ論理グラフと構文グラフを構築した。
論理グラフは論理分岐の因果関係をモデル化し、構文グラフは構文分岐の共起関係をキャプチャする。
次に、遠距離依存性をモデル化するために、各グラフからのノードシーケンスを完全連結グラフトランスフォーマー構造に供給する。
隣接する2つの行列はグラフ変換器層の注意バイアスと見なされ、離散論理構造を連続的なテキスト埋め込み空間にマッピングする。
第3に、応答予測の前に動的ゲート機構と質問認識自己認識モジュールを導入して特徴を更新する。
推論プロセスは、人間の認知と整合した論理単位を用いることで解釈可能性を提供する。
実験の結果,2つの論理的推論ベンチマークにおいて,最先端の単一モデルよりも優れたモデルが得られた。
関連論文リスト
- PathReasoner: Modeling Reasoning Path with Equivalent Extension for Logical Question Answering [27.50008553118866]
我々は、各論理サンプルを推論パスに変換することによって、論理推論タスクをモデル化する。
論理サンプルの多様性を高めるために,等価な論理式によって支持される原子拡張戦略を提案する。
実験により、PathReasonerは2つの論理的推論ベンチマークと大きな一般化能力で競合性能を達成することが示された。
論文 参考訳(メタデータ) (2024-05-29T14:14:05Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Discourse-Aware Graph Networks for Textual Logical Reasoning [142.0097357999134]
パッセージレベルの論理関係は命題単位間の係り合いまたは矛盾を表す(例、結論文)
論理的推論QAを解くための論理構造制約モデリングを提案し、談話対応グラフネットワーク(DAGN)を導入する。
ネットワークはまず、インラインの談話接続とジェネリック論理理論を利用した論理グラフを構築し、その後、エッジ推論機構を用いて論理関係を進化させ、グラフ機能を更新することで論理表現を学習する。
論文 参考訳(メタデータ) (2022-07-04T14:38:49Z) - AdaLoGN: Adaptive Logic Graph Network for Reasoning-Based Machine
Reading Comprehension [21.741085513119785]
ReClorやLogiQAといった最近の機械学習の理解データセットでは、テキスト上で論理的推論を行う必要がある。
本稿では, テキスト単位間の論理的関係を表すグラフ上で, 応答を予測し, メッセージを渡すニューラルシンボリックなアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-16T23:51:01Z) - Logic-Driven Context Extension and Data Augmentation for Logical
Reasoning of Text [65.24325614642223]
論理的な記号や表現をテキストで理解し、答えにたどり着くよう提案します。
このような論理的情報に基づいて,文脈拡張フレームワークとデータ拡張アルゴリズムを提案する。
本手法は最先端の性能を実現し,論理駆動コンテキスト拡張フレームワークとデータ拡張アルゴリズムの両方が精度向上に寄与する。
論文 参考訳(メタデータ) (2021-05-08T10:09:36Z) - LogicalFactChecker: Leveraging Logical Operations for Fact Checking with
Graph Module Network [111.24773949467567]
ファクトチェックに論理演算を活用するニューラルネットワークアプローチであるLogicalFactCheckerを提案する。
大規模なベンチマークデータセットであるTABFACT上での最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-04-28T17:04:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。