論文の概要: Let the Agent Search: Autonomous Exploration Beats Rigid Workflows in Temporal Question Answering
- arxiv url: http://arxiv.org/abs/2603.01853v1
- Date: Mon, 02 Mar 2026 13:33:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.890746
- Title: Let the Agent Search: Autonomous Exploration Beats Rigid Workflows in Temporal Question Answering
- Title(参考訳): エージェントを検索する: 自律的な探索は、時間的質問の回答で厳格なワークフローに勝る
- Authors: Xufei Lv, Jiahui Yang, Yifu Gao, Linbo Qiao, Houde Liu,
- Abstract要約: 時間的知識グラフ質問回答(TKGQA)は、時間的制約の下でマルチホップ推論を要求する。
オフ・ザ・シェルフの自律性、つまり次に何をするかを決めることは、すでにかなりの利益をもたらしていることを示す。
時間的質問応答のための自律型トレーニングフリーエージェントAT2QAを提案する。
- 参考スコア(独自算出の注目度): 12.204337131764852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal Knowledge Graph Question Answering (TKGQA) demands multi-hop reasoning under temporal constraints. Prior approaches based on large language models (LLMs) typically rely on rigid, hand-crafted retrieval workflows or costly supervised fine-tuning. We show that simply granting an off-the-shelf LLM autonomy, that is, letting it decide what to do next, already yields substantial gains even in a strict zero-shot setting. Building on this insight, we propose AT2QA, an autonomous, training-free agent for temporal question answering that iteratively interacts with the temporal knowledge graph via a general search tool for dynamic retrieval. Experiments on MultiTQ demonstrate large improvements: AT2QA achieves 88.7% Hits@1 (+10.7% over prior SOTA), including a +20.1% gain on challenging multi-target queries, showing that agentic autonomy can decisively outperform fine-tuning for temporal question answering. Code and the full set of sampled trajectories are available on https://github.com/AT2QA-Official-Code/AT2QA-Official-Code
- Abstract(参考訳): 時間的知識グラフ質問回答(TKGQA)は、時間的制約の下でマルチホップ推論を要求する。
大規模言語モデル(LLM)に基づく以前のアプローチは、通常、厳密で手作りの検索ワークフローや、高価な教師付き微調整に依存していた。
すなわち、厳格なゼロショット設定であっても、次に何をするか決められるようにすれば、かなりの利得が得られるということが示されます。
この知見に基づいて,動的検索のための汎用検索ツールを用いて,時間的知識グラフと反復的に対話する,時間的質問に対する自律的学習自由エージェントAT2QAを提案する。
AT2QAは88.7%のhits@1(+10.7%)を達成し、また、エージェント自律性は時間的質問応答の微調整を決定的に上回っている。
コードとサンプルトラジェクトリの全セットはhttps://github.com/AT2QA-Official-Code/AT2QA-Official-Codeで入手できる。
関連論文リスト
- Temp-R1: A Unified Autonomous Agent for Complex Temporal KGQA via Reverse Curriculum Reinforcement Learning [51.79753403262177]
時間的知識グラフ質問回答(TKGQA)は、マルチホップ依存と複雑な時間的制約を持つ動的事実に対する洗練された推論を必要とするため、本質的に困難である。
我々は、強化学習を通じて訓練されたTKGQAのための、最初の自律的エンドツーエンドエージェントであるTemp-R1を提案する。
8BパラメータであるTemp-R1はMultiTQとTimelineKGQAの最先端性能を実現し、複雑な問題に対する強いベースラインよりも19.8%向上した。
論文 参考訳(メタデータ) (2026-01-26T09:23:53Z) - The benefits of query-based KGQA systems for complex and temporal questions in LLM era [55.20230501807337]
大規模言語モデルは質問回答(QA)に優れていますが、マルチホップ推論や時間的質問には苦戦しています。
クエリベースの知識グラフ QA (KGQA) は、直接回答の代わりに実行可能なクエリを生成するモジュール形式の代替手段を提供する。
WikiData QAのためのマルチステージクエリベースのフレームワークについて検討し、課題のあるマルチホップと時間ベンチマークのパフォーマンスを向上させるマルチステージアプローチを提案する。
論文 参考訳(メタデータ) (2025-07-16T06:41:03Z) - Question-Aware Gaussian Experts for Audio-Visual Question Answering [8.377705744753047]
AVQA (Audio-Visual Question Answering) は質問に基づく多モーダル推論と正確な時間的根拠を必要とする。
本稿では,質問情報を明示的に組み込んだ新しいフレームワークQA-TIGERを提案する。
論文 参考訳(メタデータ) (2025-03-06T14:11:46Z) - Time-MQA: Time Series Multi-Task Question Answering with Context Enhancement [55.2439260314328]
Time Series Multi-Task Question Answering (Time-MQA)は、複数の時系列タスクにわたる自然言語クエリを可能にする統合フレームワークである。
Time-MQAの中心はTSQAデータセットである。
論文 参考訳(メタデータ) (2025-02-26T13:47:13Z) - TimeLogic: A Temporal Logic Benchmark for Video QA [64.32208175236323]
時間的論理的質問を自動的に生成するTimeLogic QA(TLQA)フレームワークを導入する。
私たちはSTAR、Breakfast、AGQA、CrossTaskの4つのデータセットを活用し、カテゴリ毎に2kと10kのQAペアを生成します。
時間的複雑性の異なる16カテゴリの時間論理に対して,ビデオQAモデルの時間的推論性能を評価する。
論文 参考訳(メタデータ) (2025-01-13T11:12:59Z) - AutoReason: Automatic Few-Shot Reasoning Decomposition [0.0]
思考の連鎖(CoT)は、大規模言語モデルにおけるステップバイステップ推論を改善する手法として近年研究されている。
本稿では,CoTを用いた合理性を自動生成するシステムを提案する。
提案手法は,暗黙的クエリをいくつかの明示的な質問に分解することで,多段階の暗黙的推論能力を向上させる。
論文 参考訳(メタデータ) (2024-12-09T20:35:39Z) - Self-Improvement Programming for Temporal Knowledge Graph Question Answering [31.33908040172437]
時間的知識グラフ質問回答(TKGQA)は、時間的知識グラフ(TKG)に対する時間的意図で質問に答えることを目的としている。
既存のエンドツーエンドの手法は、質問や候補者の回答の埋め込みを学習することで、時間制約を暗黙的にモデル化する。
TKGQA(Prog-TQA)のための新しい自己改善プログラミング手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T08:14:27Z) - NExT-QA:Next Phase of Question-Answering to Explaining Temporal Actions [80.60423934589515]
NExT-QAは、厳密に設計されたビデオ質問回答(VideoQA)ベンチマークです。
因果的行動推論,時間的行動推論,共通場面理解を対象とする複数選択およびオープンエンドQAタスクを構築した。
トップパフォーマンスの手法は浅い場面記述に優れているが、因果的および時間的行動推論に弱い。
論文 参考訳(メタデータ) (2021-05-18T04:56:46Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。