論文の概要: Conversational Question Answering over Knowledge Graphs with Transformer
and Graph Attention Networks
- arxiv url: http://arxiv.org/abs/2104.01569v1
- Date: Sun, 4 Apr 2021 09:21:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 06:39:53.632145
- Title: Conversational Question Answering over Knowledge Graphs with Transformer
and Graph Attention Networks
- Title(参考訳): 変圧器とグラフ注意ネットワークを用いた知識グラフに関する会話質問
- Authors: Endri Kacupaj, Joan Plepi, Kuldeep Singh, Harsh Thakkar, Jens Lehmann,
Maria Maleshkova
- Abstract要約: 本稿では,知識グラフ上での(複雑な)会話型質問応答のタスクについて述べる。
LASAGNE (muLti-task semAntic parSing with trAnsformer and Graph atteNtion nEtworks) を提案する。
LASAGNEは10問中8問でF1スコアを改善した。
- 参考スコア(独自算出の注目度): 4.550927535779247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses the task of (complex) conversational question answering
over a knowledge graph. For this task, we propose LASAGNE (muLti-task semAntic
parSing with trAnsformer and Graph atteNtion nEtworks). It is the first
approach, which employs a transformer architecture extended with Graph
Attention Networks for multi-task neural semantic parsing. LASAGNE uses a
transformer model for generating the base logical forms, while the Graph
Attention model is used to exploit correlations between (entity) types and
predicates to produce node representations. LASAGNE also includes a novel
entity recognition module which detects, links, and ranks all relevant entities
in the question context. We evaluate LASAGNE on a standard dataset for complex
sequential question answering, on which it outperforms existing baseline
averages on all question types. Specifically, we show that LASAGNE improves the
F1-score on eight out of ten question types; in some cases, the increase in
F1-score is more than 20% compared to the state of the art.
- Abstract(参考訳): 本稿では,知識グラフ上での(複雑な)会話型質問応答のタスクについて述べる。
本研究では,LASAGNE (muLti-task semAntic parSing with trAnsformer and Graph atteNtion nEtworks)を提案する。
これは、マルチタスクのニューラルセマンティックパーシングのためにグラフ注意ネットワークで拡張されたトランスフォーマーアーキテクチャを使用した最初のアプローチである。
LASAGNEは基本論理形式を生成するためにトランスフォーマーモデルを使用し、グラフアテンションモデルは(中心)型と述語の間の相関を利用してノード表現を生成する。
LASAGNEはまた、質問コンテキスト内のすべての関連エンティティを検出し、リンクし、ランク付けする新しいエンティティ認識モジュールを含んでいる。
複雑な質問応答のための標準データセットでlasagneを評価し,すべての質問タイプにおいて,既存のベースライン平均を上回っている。
具体的には,10の質問タイプのうち8つのF1スコアに対してLASAGNEがF1スコアを改善することを示す。
関連論文リスト
- A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Joint Entity and Relation Extraction with Span Pruning and Hypergraph
Neural Networks [58.43972540643903]
PLマーカ(最先端マーカーベースピプレリンモデル)上に構築されたEREのためのHyperGraphニューラルネットワーク(hgnn$)を提案する。
エラーの伝播を軽減するため,NERモジュールからのエンティティ識別とラベル付けの負担をモデルのジョイントモジュールに転送するために,ハイリコールプルーナー機構を用いる。
EREタスクに広く使用されている3つのベンチマークの実験は、以前の最先端のPLマーカーよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-10-26T08:36:39Z) - Graph Attention with Hierarchies for Multi-hop Question Answering [19.398300844233837]
本稿では,HotpotQAに対するSOTA Graph Neural Network(GNN)モデルの拡張について述べる。
HotpotQAの実験は、提案された修正の効率を実証している。
論文 参考訳(メタデータ) (2023-01-27T15:49:50Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Question-Answer Sentence Graph for Joint Modeling Answer Selection [122.29142965960138]
我々は,質問文,質問文,回答文のペア間のスコアを計算するための最先端(SOTA)モデルを訓練し,統合する。
オンライン推論は、目に見えないクエリのAS2タスクを解決するために実行される。
論文 参考訳(メタデータ) (2022-02-16T05:59:53Z) - Bilateral Cross-Modality Graph Matching Attention for Feature Fusion in
Visual Question Answering [71.6781118080461]
本稿では,視覚質問応答(VQA)タスクのためのグラフマッチング注意(GMA)ネットワークを提案する。
まず、画像用のグラフを構築するが、構文情報と埋め込み情報の両方の観点から質問用のグラフを構築する。
次に, 2段グラフエンコーダを用いてモダリティ内関係を探索し, 画像と質問の関係を推定するために, 注目に合う双方向のモダリティグラフを提示する。
実験により、我々のネットワークはGQAデータセットとVQA 2.0データセット上で最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2021-12-14T10:01:26Z) - Context Transformer with Stacked Pointer Networks for Conversational
Question Answering over Knowledge Graphs [4.6574525260746285]
CARTONという新しいフレームワークを提案し,大規模ナレッジグラフ上で対話型質問応答の問題を処理するためのマルチタスク意味解析を行う。
本フレームワークは,入力質問と対話履歴を解析するコンテキストトランスフォーマーモデルの拡張として,ポインタネットワークのスタックで構成されている。
CARTONがすべてのベースラインを上回っているかに関する複雑な逐次質問応答のための標準データセット上でCARTONを評価します。
論文 参考訳(メタデータ) (2021-03-13T18:16:43Z) - Iterative Context-Aware Graph Inference for Visual Dialog [126.016187323249]
本稿では,新しいコンテキスト認識グラフ(CAG)ニューラルネットワークを提案する。
グラフの各ノードは、オブジェクトベース(視覚)と履歴関連(テキスト)コンテキスト表現の両方を含む、共同意味機能に対応している。
論文 参考訳(メタデータ) (2020-04-05T13:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。