論文の概要: Contrastive Representation Learning for Conversational Question
Answering over Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2210.04373v1
- Date: Sun, 9 Oct 2022 23:11:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 16:44:17.051178
- Title: Contrastive Representation Learning for Conversational Question
Answering over Knowledge Graphs
- Title(参考訳): 知識グラフを用いた会話質問に対するコントラスト表現学習
- Authors: Endri Kacupaj, Kuldeep Singh, Maria Maleshkova, Jens Lehmann
- Abstract要約: 本稿では,知識グラフ(KG)に対する会話型質問応答(ConvQA)の課題について述べる。
既存のConvQA法の大部分は、KGからの回答を抽出するために、ゴールド論理形式のクエリが利用できることを厳格に仮定した完全な監視信号に依存している。
そこで本稿では,KG経路を効果的にランク付けするコントラスト表現型学習手法を提案する。
- 参考スコア(独自算出の注目度): 9.979689965471428
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses the task of conversational question answering (ConvQA)
over knowledge graphs (KGs). The majority of existing ConvQA methods rely on
full supervision signals with a strict assumption of the availability of gold
logical forms of queries to extract answers from the KG. However, creating such
a gold logical form is not viable for each potential question in a real-world
scenario. Hence, in the case of missing gold logical forms, the existing
information retrieval-based approaches use weak supervision via heuristics or
reinforcement learning, formulating ConvQA as a KG path ranking problem.
Despite missing gold logical forms, an abundance of conversational contexts,
such as entire dialog history with fluent responses and domain information, can
be incorporated to effectively reach the correct KG path. This work proposes a
contrastive representation learning-based approach to rank KG paths
effectively. Our approach solves two key challenges. Firstly, it allows weak
supervision-based learning that omits the necessity of gold annotations.
Second, it incorporates the conversational context (entire dialog history and
domain information) to jointly learn its homogeneous representation with KG
paths to improve contrastive representations for effective path ranking. We
evaluate our approach on standard datasets for ConvQA, on which it
significantly outperforms existing baselines on all domains and overall.
Specifically, in some cases, the Mean Reciprocal Rank (MRR) and Hit@5 ranking
metrics improve by absolute 10 and 18 points, respectively, compared to the
state-of-the-art performance.
- Abstract(参考訳): 本稿では,知識グラフ(KG)に対する会話型質問応答(ConvQA)の課題について述べる。
既存のConvQA法の大部分は、KGからの回答を抽出するために、ゴールド論理形式のクエリが利用できることを厳格に仮定した完全な監視信号に依存している。
しかし、そのような金の論理形式を作成することは、現実のシナリオにおける各潜在的な問題に対して不可能である。
したがって、金の論理形式が欠落している場合、既存の情報検索ベースのアプローチは、ヒューリスティックスや強化学習による弱い監督を使い、KGパスランキング問題としてConvQAを定式化する。
金の論理形式が欠如しているにもかかわらず、対話履歴全体や、流動的な応答、ドメイン情報など、会話のコンテキストが豊富であり、適切なKGパスに効果的に到達することができる。
本研究は, コントラスト表現学習に基づくランクkg経路の効率的な解法を提案する。
このアプローチは2つの重要な課題を解決します。
まず、ゴールドアノテーションの必要性を省く、弱い監督ベースの学習を可能にする。
第2に、会話の文脈(対話履歴とドメイン情報)を取り入れて、KGパスとの同質表現を共同学習し、効果的なパスランキングのためのコントラスト表現を改善する。
我々は、ConvQAの標準データセットに対するアプローチを評価し、すべてのドメインおよび全体において既存のベースラインを大幅に上回っている。
特に、場合によっては、平均相互ランク(mrr)とhit@5ランキング指標が、最先端のパフォーマンスと比較して、それぞれ絶対10ポイントと18ポイント改善される。
関連論文リスト
- A Prompt-Based Knowledge Graph Foundation Model for Universal In-Context Reasoning [17.676185326247946]
そこで本研究では,テキスト内学習,すなわちKG-ICLを介し,プロンプトに基づくKGファウンデーションモデルを提案する。
クエリにおけるエンティティや関係を発見できないような一般化機能を備えたプロンプトグラフを符号化するために,まず統一トークン化器を提案する。
そこで我々は,プロンプトエンコーディングとKG推論を行う2つのメッセージパッシングニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-10-16T06:47:18Z) - Prompting Large Language Models with Chain-of-Thought for Few-Shot
Knowledge Base Question Generation [19.327008532572645]
知識ベースに関する質問生成(KBQG)は、論理形式を自然言語の質問に変換することを目的としている。
推論のためのコンテキスト内学習戦略であるChain-of-Thoughtプロンプトを提案する。
3つのKBQGデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2023-10-12T15:08:14Z) - Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - ChatGPT versus Traditional Question Answering for Knowledge Graphs:
Current Status and Future Directions Towards Knowledge Graph Chatbots [7.2676028986202]
知識グラフ(KG)のための会話型AIと質問応答システム(QAS)はどちらも新興研究分野である。
QASは、自然言語質問を理解して翻訳することで、KGから最新の情報を検索し、データベースエンジンがサポートする形式的なクエリに変換する。
本フレームワークでは,現在最先端のQASであるKGQANに対して,ChatGPTとGalacticaの2つの代表的な対話モデルを比較した。
論文 参考訳(メタデータ) (2023-02-08T13:03:27Z) - RHO ($\rho$): Reducing Hallucination in Open-domain Dialogues with
Knowledge Grounding [57.46495388734495]
本稿では、知識グラフ(KG)からリンクされたエンティティと関係述語を表現したRHO(rho$)を提案する。
本稿では,(1)テキスト埋め込みと対応するKG埋め込みを組み合わせるための局所知識基盤,(2)注目機構を介してRHOにマルチホップ推論能力を持たせるためのグローバル知識基盤を提案する。
論文 参考訳(メタデータ) (2022-12-03T10:36:34Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - VQA-GNN: Reasoning with Multimodal Knowledge via Graph Neural Networks
for Visual Question Answering [79.22069768972207]
本稿では,VQA-GNNモデルを提案する。VQA-GNNは,非構造化知識と構造化知識の双方向融合を行い,統一知識表現を得る。
具体的には,シーングラフとコンセプトグラフを,QAコンテキストを表すスーパーノードを介して相互接続する。
課題2つのVQAタスクにおいて,本手法はVCRが3.2%,GQAが4.6%,強いベースラインVQAが3.2%向上し,概念レベルの推論を行う上での強みが示唆された。
論文 参考訳(メタデータ) (2022-05-23T17:55:34Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - Improving Embedded Knowledge Graph Multi-hop Question Answering by
introducing Relational Chain Reasoning [8.05076085499457]
知識ベース質問回答(KBQA)は、トピックエンティティと回答の間の推論を識別することで、知識ベース(KB)からのユーザ要求に答える。
KBQA の複素分岐タスクとして、マルチホップ KGQA は構造化された KG に保存された多重ホップ関係鎖の推論を必要とする。
論文 参考訳(メタデータ) (2021-10-25T06:53:02Z) - QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question
Answering [122.84513233992422]
学習済み言語モデル(LM)と知識グラフ(KG)の知識を用いて質問に答える問題に対処する新しいモデルであるQA-GNNを提案する。
既存のLMとLM+KGモデルに対する改善と、解釈可能で構造化された推論を行う能力を示しています。
論文 参考訳(メタデータ) (2021-04-13T17:32:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。