論文の概要: Multi-hop Question Answering under Temporal Knowledge Editing
- arxiv url: http://arxiv.org/abs/2404.00492v1
- Date: Sat, 30 Mar 2024 23:22:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 03:30:20.077308
- Title: Multi-hop Question Answering under Temporal Knowledge Editing
- Title(参考訳): 時間的知識編集によるマルチホップ質問応答
- Authors: Keyuan Cheng, Gang Lin, Haoyang Fei, Yuxuan zhai, Lu Yu, Muhammad Asif Ali, Lijie Hu, Di Wang,
- Abstract要約: 知識編集(KE)におけるマルチホップ質問応答(MQA)は,大規模言語モデルの時代において大きな注目を集めている。
KEの下でのMQAの既存のモデルは、明示的な時間的コンテキストを含む質問を扱う場合、パフォーマンスが劣っている。
TEMPoral knowLEdge augmented Multi-hop Question Answering (TEMPLE-MQA) を提案する。
- 参考スコア(独自算出の注目度): 9.356343796845662
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-hop question answering (MQA) under knowledge editing (KE) has garnered significant attention in the era of large language models. However, existing models for MQA under KE exhibit poor performance when dealing with questions containing explicit temporal contexts. To address this limitation, we propose a novel framework, namely TEMPoral knowLEdge augmented Multi-hop Question Answering (TEMPLE-MQA). Unlike previous methods, TEMPLE-MQA first constructs a time-aware graph (TAG) to store edit knowledge in a structured manner. Then, through our proposed inference path, structural retrieval, and joint reasoning stages, TEMPLE-MQA effectively discerns temporal contexts within the question query. Experiments on benchmark datasets demonstrate that TEMPLE-MQA significantly outperforms baseline models. Additionally, we contribute a new dataset, namely TKEMQA, which serves as the inaugural benchmark tailored specifically for MQA with temporal scopes.
- Abstract(参考訳): 知識編集(KE)におけるマルチホップ質問応答(MQA)は,大規模言語モデルの時代において大きな注目を集めている。
しかしながら、KEの下でのMQAの既存のモデルは、明示的な時間的文脈を含む質問を扱う場合、性能が劣っている。
この制限に対処するため、TEMPoral knowLEdge augmented Multi-hop Question Answering (TEMPLE-MQA) という新しいフレームワークを提案する。
従来の方法とは異なり、TEMPLE-MQAはまずタイムアウェアグラフ(TAG)を構築し、編集知識を構造化された方法で保存する。
そして、提案した推論経路、構造検索、共同推論段階を通じて、TEMPLE-MQAは質問クエリ内の時間的コンテキストを効果的に識別する。
ベンチマークデータセットの実験では、TEMPLE-MQAがベースラインモデルを大幅に上回っていることが示されている。
さらに、時間的スコープを持つMQAに特化した最初のベンチマークとして機能する新しいデータセット、すなわちTKEMQAをコントリビュートする。
関連論文リスト
- MQA-KEAL: Multi-hop Question Answering under Knowledge Editing for Arabic Language [7.488965571323756]
アラビア語(MQA-KEAL)の知識編集に基づくマルチホップ質問回答を提案する。
MQA-KEALは、知識編集を構造化知識単位として外部メモリに格納する。
また,KE による MQA の厳密な性能評価のための MQA-AEVAL も提案した。
論文 参考訳(メタデータ) (2024-09-18T18:40:02Z) - ComplexTempQA: A Large-Scale Dataset for Complex Temporal Question Answering [24.046966640011124]
ComplexTempQAは、1億以上の質問応答ペアからなる大規模なデータセットである。
このデータセットは、20年以上にわたる質問をカバーし、未一致のトピックを提供している。
論文 参考訳(メタデータ) (2024-06-07T12:01:59Z) - Self-Improvement Programming for Temporal Knowledge Graph Question Answering [31.33908040172437]
時間的知識グラフ質問回答(TKGQA)は、時間的知識グラフ(TKG)に対する時間的意図で質問に答えることを目的としている。
既存のエンドツーエンドの手法は、質問や候補者の回答の埋め込みを学習することで、時間制約を暗黙的にモデル化する。
TKGQA(Prog-TQA)のための新しい自己改善プログラミング手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T08:14:27Z) - Towards Robust Temporal Reasoning of Large Language Models via a Multi-Hop QA Dataset and Pseudo-Instruction Tuning [73.51314109184197]
大規模言語モデル(LLM)には時間的知識の概念を理解することが不可欠である。
本稿では,複数質問応答と複数ホップの時間的推論に焦点をあてた複雑な時間的質問応答データセットであるComplex-TRを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:49:29Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - RoMQA: A Benchmark for Robust, Multi-evidence, Multi-answer Question
Answering [87.18962441714976]
堅牢でマルチエビデンスな質問応答(QA)のための最初のベンチマークであるRoMQAを紹介します。
我々は、最先端の大規模言語モデルをゼロショット、少数ショット、微調整設定で評価し、RoMQAが難しいことを発見した。
以上の結果から,RoMQAは大規模言語モデルにとって難しいベンチマークであり,より堅牢なQA手法を構築するための定量的なテストを提供する。
論文 参考訳(メタデータ) (2022-10-25T21:39:36Z) - Semantic Framework based Query Generation for Temporal Question
Answering over Knowledge Graphs [19.851986862305623]
本稿では,提案するエンティティの関連事実を探索し,問合せグラフを生成する時間的質問応答手法であるSF-TQAを提案する。
評価の結果,SF-TQAは知識グラフの異なる2つのベンチマークにおいて既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2022-10-10T08:40:28Z) - QA4QG: Using Question Answering to Constrain Multi-Hop Question
Generation [54.136509061542775]
マルチホップ質問生成(MQG)は、入力パスの複数の情報に対する推論を必要とする複雑な質問を生成することを目的としている。
MQGのためのQA強化BARTベースのフレームワークであるQA4QGを提案する。
HotpotQAデータセットの結果は、QA4QGがすべての最先端モデルより優れていることを示している。
論文 参考訳(メタデータ) (2022-02-14T08:16:47Z) - A Benchmark for Generalizable and Interpretable Temporal Question
Answering over Knowledge Bases [67.33560134350427]
TempQA-WDは時間的推論のためのベンチマークデータセットである。
Wikidataは、最も頻繁にキュレーションされ、公開されている知識ベースである。
論文 参考訳(メタデータ) (2022-01-15T08:49:09Z) - NExT-QA:Next Phase of Question-Answering to Explaining Temporal Actions [80.60423934589515]
NExT-QAは、厳密に設計されたビデオ質問回答(VideoQA)ベンチマークです。
因果的行動推論,時間的行動推論,共通場面理解を対象とする複数選択およびオープンエンドQAタスクを構築した。
トップパフォーマンスの手法は浅い場面記述に優れているが、因果的および時間的行動推論に弱い。
論文 参考訳(メタデータ) (2021-05-18T04:56:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。