論文の概要: RTQA : Recursive Thinking for Complex Temporal Knowledge Graph Question Answering with Large Language Models
- arxiv url: http://arxiv.org/abs/2509.03995v1
- Date: Thu, 04 Sep 2025 08:25:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.099774
- Title: RTQA : Recursive Thinking for Complex Temporal Knowledge Graph Question Answering with Large Language Models
- Title(参考訳): RTQA : 大規模言語モデルを用いた複雑な時間的知識グラフ質問に対する再帰的思考
- Authors: Zhaoyan Gong, Juan Li, Zhiqiang Liu, Lei Liang, Huajun Chen, Wen Zhang,
- Abstract要約: RTQAは、トレーニングを必要とせずにTKGに対する推論を強化するための新しいフレームワークである。
問題をサブプロブレムに分解し、LLMとTKGの知識を用いてボトムアップを解き、フォールトトレランスを改善するためにマルチパス応答アグリゲーションを利用する。
MultiTQとTimelineKGQAベンチマークの実験では、Hits@1が"Multiple"と"Complex"のカテゴリで大幅に改善され、最先端のメソッドよりも優れています。
- 参考スコア(独自算出の注目度): 46.789791710884835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current temporal knowledge graph question answering (TKGQA) methods primarily focus on implicit temporal constraints, lacking the capability of handling more complex temporal queries, and struggle with limited reasoning abilities and error propagation in decomposition frameworks. We propose RTQA, a novel framework to address these challenges by enhancing reasoning over TKGs without requiring training. Following recursive thinking, RTQA recursively decomposes questions into sub-problems, solves them bottom-up using LLMs and TKG knowledge, and employs multi-path answer aggregation to improve fault tolerance. RTQA consists of three core components: the Temporal Question Decomposer, the Recursive Solver, and the Answer Aggregator. Experiments on MultiTQ and TimelineKGQA benchmarks demonstrate significant Hits@1 improvements in "Multiple" and "Complex" categories, outperforming state-of-the-art methods. Our code and data are available at https://github.com/zjukg/RTQA.
- Abstract(参考訳): 現在の時間的知識グラフ質問応答法(TKGQA)は、主に暗黙の時間的制約に焦点を当て、より複雑な時間的クエリを扱う能力に欠け、分解フレームワークにおける限定的な推論能力とエラーの伝播に苦労している。
トレーニングを必要とせずにTKGに対する推論を強化することで,これらの課題に対処する新しいフレームワークRTQAを提案する。
再帰的思考の後、RTQAは疑問をサブプロブレムに再帰分解し、LLMとTKGの知識を用いてボトムアップを解き、フォールトトレランスを改善するためにマルチパス応答アグリゲーションを利用する。
RTQAは、Temporal Question Decomposer、Recursive Solver、Answer Aggregatorの3つのコアコンポーネントで構成されている。
MultiTQとTimelineKGQAベンチマークの実験では、Hits@1が"Multiple"と"Complex"のカテゴリで大幅に改善され、最先端のメソッドよりも優れています。
私たちのコードとデータはhttps://github.com/zjukg/RTQA.comで公開されています。
関連論文リスト
- The benefits of query-based KGQA systems for complex and temporal questions in LLM era [55.20230501807337]
大規模言語モデルは質問回答(QA)に優れていますが、マルチホップ推論や時間的質問には苦戦しています。
クエリベースの知識グラフ QA (KGQA) は、直接回答の代わりに実行可能なクエリを生成するモジュール形式の代替手段を提供する。
WikiData QAのためのマルチステージクエリベースのフレームワークについて検討し、課題のあるマルチホップと時間ベンチマークのパフォーマンスを向上させるマルチステージアプローチを提案する。
論文 参考訳(メタデータ) (2025-07-16T06:41:03Z) - Typed-RAG: Type-Aware Decomposition of Non-Factoid Questions for Retrieval-Augmented Generation [1.275764996205493]
非ファクトイド質問(NFQ)の型認識分解のためのフレームワークであるTyped-RAGを提案する。
具体的には、Typed-RAGはNFQを事前に定義された型に分類する。
その後、質問を集中サブクエリに分解し、それぞれが1つの側面にフォーカスする。
これらのサブクエリの結果を組み合わせることで、Typed-RAGはより情報的かつ文脈的に整合した応答を生成する。
論文 参考訳(メタデータ) (2025-03-20T06:04:12Z) - Self-Improvement Programming for Temporal Knowledge Graph Question Answering [31.33908040172437]
時間的知識グラフ質問回答(TKGQA)は、時間的知識グラフ(TKG)に対する時間的意図で質問に答えることを目的としている。
既存のエンドツーエンドの手法は、質問や候補者の回答の埋め込みを学習することで、時間制約を暗黙的にモデル化する。
TKGQA(Prog-TQA)のための新しい自己改善プログラミング手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T08:14:27Z) - Multi-hop Question Answering under Temporal Knowledge Editing [9.356343796845662]
知識編集(KE)におけるマルチホップ質問応答(MQA)は,大規模言語モデルの時代において大きな注目を集めている。
KEの下でのMQAの既存のモデルは、明示的な時間的コンテキストを含む質問を扱う場合、パフォーマンスが劣っている。
TEMPoral knowLEdge augmented Multi-hop Question Answering (TEMPLE-MQA) を提案する。
論文 参考訳(メタデータ) (2024-03-30T23:22:51Z) - MFORT-QA: Multi-hop Few-shot Open Rich Table Question Answering [3.1651118728570635]
今日の急成長する業界では、専門家は大量の文書を要約し、毎日重要な情報を抽出するという課題に直面している。
この課題に対処するために、テーブル質問回答(QA)のアプローチを開発し、関連する情報を抽出した。
近年のLarge Language Models (LLMs) の進歩により,プロンプトを用いて表データから情報を取り出す新たな可能性が高まっている。
論文 参考訳(メタデータ) (2024-03-28T03:14:18Z) - Towards Robust Temporal Reasoning of Large Language Models via a Multi-Hop QA Dataset and Pseudo-Instruction Tuning [73.51314109184197]
大規模言語モデル(LLM)には時間的知識の概念を理解することが不可欠である。
本稿では,複数質問応答と複数ホップの時間的推論に焦点をあてた複雑な時間的質問応答データセットであるComplex-TRを提案する。
論文 参考訳(メタデータ) (2023-11-16T11:49:29Z) - Toward Unsupervised Realistic Visual Question Answering [70.67698100148414]
現実的なVQA(RVQA)の問題について検討し、モデルが答えられない質問(UQ)を拒絶し、答えられる質問(AQ)に答えなければならない。
1)データセットには不整合UQが多すぎること,(2)多数の注釈付きUQがトレーニングに必要とされること,の2つの欠点を最初に指摘した。
我々は、既存のVQAデータセットのAQと約29万の人間の注釈付きUQを組み合わせた新しいテストデータセットRGQAを提案する。
これは、画像と質問をランダムにペアリングして得られる擬似UQと、それを結合する。
論文 参考訳(メタデータ) (2023-03-09T06:58:29Z) - Interleaving Retrieval with Chain-of-Thought Reasoning for
Knowledge-Intensive Multi-Step Questions [50.114651561111245]
マルチステップ質問応答のための新しいアプローチであるIRCoTを提案する。
CoTのステップで検索をインターリーブし、CoTで検索を誘導し、検索結果を用いてCoTを改善する。
論文 参考訳(メタデータ) (2022-12-20T18:26:34Z) - RoMQA: A Benchmark for Robust, Multi-evidence, Multi-answer Question
Answering [87.18962441714976]
堅牢でマルチエビデンスな質問応答(QA)のための最初のベンチマークであるRoMQAを紹介します。
我々は、最先端の大規模言語モデルをゼロショット、少数ショット、微調整設定で評価し、RoMQAが難しいことを発見した。
以上の結果から,RoMQAは大規模言語モデルにとって難しいベンチマークであり,より堅牢なQA手法を構築するための定量的なテストを提供する。
論文 参考訳(メタデータ) (2022-10-25T21:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。