論文の概要: Contextualized Knowledge-aware Attentive Neural Network: Enhancing
Answer Selection with Knowledge
- arxiv url: http://arxiv.org/abs/2104.05216v1
- Date: Mon, 12 Apr 2021 05:52:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 04:23:26.318894
- Title: Contextualized Knowledge-aware Attentive Neural Network: Enhancing
Answer Selection with Knowledge
- Title(参考訳): contextized knowledge-aware attentive neural network: enhance answer selection with knowledge
- Authors: Yang Deng, Yuexiang Xie, Yaliang Li, Min Yang, Wai Lam, Ying Shen
- Abstract要約: ナレッジグラフ(KG)による外部知識による回答選択モデル向上のアプローチを幅広く検討しています。
まず、KGの外部知識とテキスト情報との密接な相互作用を考慮し、QA文表現を学習するコンテキスト知識相互作用学習フレームワークであるナレッジアウェアニューラルネットワーク(KNN)を紹介します。
KG情報の多様性と複雑性に対処するために, カスタマイズされたグラフ畳み込みネットワーク (GCN) を介して構造情報を用いた知識表現学習を改善し, コンテキストベースおよび知識ベースの文表現を総合的に学習する コンテキスト型知識認識型アテンシブニューラルネットワーク (CKANN) を提案する。
- 参考スコア(独自算出の注目度): 77.77684299758494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Answer selection, which is involved in many natural language processing
applications such as dialog systems and question answering (QA), is an
important yet challenging task in practice, since conventional methods
typically suffer from the issues of ignoring diverse real-world background
knowledge. In this paper, we extensively investigate approaches to enhancing
the answer selection model with external knowledge from knowledge graph (KG).
First, we present a context-knowledge interaction learning framework,
Knowledge-aware Neural Network (KNN), which learns the QA sentence
representations by considering a tight interaction with the external knowledge
from KG and the textual information. Then, we develop two kinds of
knowledge-aware attention mechanism to summarize both the context-based and
knowledge-based interactions between questions and answers. To handle the
diversity and complexity of KG information, we further propose a Contextualized
Knowledge-aware Attentive Neural Network (CKANN), which improves the knowledge
representation learning with structure information via a customized Graph
Convolutional Network (GCN) and comprehensively learns context-based and
knowledge-based sentence representation via the multi-view knowledge-aware
attention mechanism. We evaluate our method on four widely-used benchmark QA
datasets, including WikiQA, TREC QA, InsuranceQA and Yahoo QA. Results verify
the benefits of incorporating external knowledge from KG, and show the robust
superiority and extensive applicability of our method.
- Abstract(参考訳): 対話システムや質問応答(qa)など、多くの自然言語処理アプリケーションに関与している回答選択は、現実の様々な背景知識を無視して、従来の方法が一般的に問題となるため、実際には重要かつ困難なタスクである。
本稿では,知識グラフ(kg)からの外部知識を用いて回答選択モデルを強化する手法を広範囲に検討する。
まず,KGからの外部知識とテキスト情報との密接な相互作用を考慮し,QA文表現を学習するコンテキスト知識相互作用学習フレームワークKNNを提案する。
次に,質問と回答の文脈ベースと知識ベースの相互作用を要約するために,知識認識注意機構を2種類開発した。
さらに,KG情報の多様性と複雑さに対処するため,構造化グラフ畳み込みネットワーク(GCN)による構造情報による知識表現学習を改善し,多視点知識認識機構を通じてコンテキストベースおよび知識ベース文表現を包括的に学習する,コンテキスト対応知識認識注意ニューラルネットワーク(CKANN)を提案する。
本稿では, WikiQA, TREC QA, InsuranceQA, Yahoo QAの4つのベンチマークQAデータセットを用いて評価を行った。
その結果,kgから外部知識を取り入れることの利点を検証し,本手法の強固な優越性と広範な適用性を示す。
関連論文リスト
- Knowledge Condensation and Reasoning for Knowledge-based VQA [20.808840633377343]
近年の研究では、外部知識ベースから知識パスを取得し、それを使って質問に答えている。
本稿では,知識凝縮モデルと知識推論モデルという2つの相乗的モデルを提案する。
本手法は知識に基づくVQAデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-15T06:06:06Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Multimodal Dialog Systems with Dual Knowledge-enhanced Generative Pretrained Language Model [63.461030694700014]
マルチモーダルなタスク指向対話システム(DKMD)のための新しい二元的知識強化型事前学習言語モデルを提案する。
提案したDKMDは,2つの知識選択,2つの知識強調型文脈学習,知識強調型応答生成という3つの重要なコンポーネントから構成される。
パブリックデータセットの実験は、最先端の競合相手よりも提案されたDKMDの優位性を検証する。
論文 参考訳(メタデータ) (2022-07-16T13:02:54Z) - VQA-GNN: Reasoning with Multimodal Knowledge via Graph Neural Networks
for Visual Question Answering [79.22069768972207]
本稿では,VQA-GNNモデルを提案する。VQA-GNNは,非構造化知識と構造化知識の双方向融合を行い,統一知識表現を得る。
具体的には,シーングラフとコンセプトグラフを,QAコンテキストを表すスーパーノードを介して相互接続する。
課題2つのVQAタスクにおいて,本手法はVCRが3.2%,GQAが4.6%,強いベースラインVQAが3.2%向上し,概念レベルの推論を行う上での強みが示唆された。
論文 参考訳(メタデータ) (2022-05-23T17:55:34Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - Coarse-to-Careful: Seeking Semantic-related Knowledge for Open-domain
Commonsense Question Answering [12.406729445165857]
背景コモンセンスを必要とする質問に機械が答えるのを助けるために、外部知識を利用するのが一般的である。
本稿では,知識注入を粗大から粗大に制御する意味駆動型知識認識型QAフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-04T10:56:36Z) - KRISP: Integrating Implicit and Symbolic Knowledge for Open-Domain
Knowledge-Based VQA [107.7091094498848]
VQAの最も難しい質問の1つは、質問に答えるために画像に存在しない外部の知識を必要とする場合です。
本研究では,解答に必要な知識が与えられたり記入されたりしないオープンドメイン知識を,トレーニング時やテスト時にも検討する。
知識表現と推論には2つのタイプがあります。
まず、トランスベースのモデルで教師なし言語事前トレーニングと教師付きトレーニングデータから効果的に学ぶことができる暗黙的な知識。
論文 参考訳(メタデータ) (2020-12-20T20:13:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。