論文の概要: KBQA-o1: Agentic Knowledge Base Question Answering with Monte Carlo Tree Search
- arxiv url: http://arxiv.org/abs/2501.18922v1
- Date: Fri, 31 Jan 2025 06:59:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-03 14:03:13.887518
- Title: KBQA-o1: Agentic Knowledge Base Question Answering with Monte Carlo Tree Search
- Title(参考訳): KBQA-o1:モンテカルロ木探索によるエージェント知識ベース質問応答
- Authors: Haoran Luo, Haihong E, Yikai Guo, Qika Lin, Xiaobao Wu, Xinyu Mu, Wenhao Liu, Meina Song, Yifan Zhu, Luu Anh Tuan,
- Abstract要約: 知識ベース質問回答 (KBQA) は,大規模構造化知識ベース (KB) を用いた自然言語質問への回答を目的としている。
大きな言語モデル(LLM)の進歩にもかかわらず、KBQAはKB認識の弱さ、効率性と効率の不均衡、注釈付きデータへの高い依存といった課題に直面している。
モンテカルロ木探索(MCTS)を用いた新しいエージェントKBQA法KBQA-o1を提案する。
実験結果から,KBQA-o1は,従来の低リソースKBQA法よりもアノテートデータに制限があることがわかった。
- 参考スコア(独自算出の注目度): 30.901330193491457
- License:
- Abstract: Knowledge Base Question Answering (KBQA) aims to answer natural language questions with a large-scale structured knowledge base (KB). Despite advancements with large language models (LLMs), KBQA still faces challenges in weak KB awareness, imbalance between effectiveness and efficiency, and high reliance on annotated data. To address these challenges, we propose KBQA-o1, a novel agentic KBQA method with Monte Carlo Tree Search (MCTS). It introduces a ReAct-based agent process for stepwise logical form generation with KB environment exploration. Moreover, it employs MCTS, a heuristic search method driven by policy and reward models, to balance agentic exploration's performance and search space. With heuristic exploration, KBQA-o1 generates high-quality annotations for further improvement by incremental fine-tuning. Experimental results show that KBQA-o1 outperforms previous low-resource KBQA methods with limited annotated data, boosting Llama-3.1-8B model's GrailQA F1 performance to 78.5% compared to 48.5% of the previous sota method with GPT-3.5-turbo.
- Abstract(参考訳): Knowledge Base Question Answering (KBQA) は、自然言語の質問に対して、大規模な構造化知識ベース (KB) で答えることを目的としている。
大規模な言語モデル(LLM)の進歩にもかかわらず、KBQAはKB認識の弱さ、効率性と効率のバランスの不均衡、注釈付きデータへの高い依存といった課題に直面している。
これらの課題に対処するため,モンテカルロ木探索 (MCTS) を用いた新しいエージェントKBQA法KBQA-o1を提案する。
KB環境探索で段階的に論理形式を生成するためのReActベースのエージェントプロセスを導入する。
さらに、エージェント探索の性能と探索空間のバランスをとるために、ポリシーと報酬モデルによって駆動されるヒューリスティックな探索手法であるMCTSを採用している。
ヒューリスティックな探索によってKBQA-o1は、インクリメンタルな微調整によってさらなる改善のための高品質なアノテーションを生成する。
実験結果から,KBQA-o1は,従来の低リソースKBQA法よりも限られたアノテートデータで性能が向上し,Llama-3.1-8B モデルの GrailQA F1 は GPT-3.5-turbo を用いた Sota 法の48.5% に比べて78.5% 向上した。
関連論文リスト
- Beyond Seen Data: Improving KBQA Generalization Through Schema-Guided Logical Form Generation [36.01290160488469]
知識ベース質問応答 (KBQA) は、大きなKBに格納された豊富な人間の知識を用いて、自然言語でユーザーの質問に答えることを目的としている。
現在のKBQAメソッドは、テスト時に見知らぬ知識ベース要素と競合する。
本稿では,スキーマコンテキストをエンティティ検索や論理形式生成に注入する新しいモデルであるSG-KBQAを紹介する。
論文 参考訳(メタデータ) (2025-02-18T10:53:41Z) - A Learn-Then-Reason Model Towards Generalization in Knowledge Base Question Answering [17.281005999581865]
FreebaseやWikidataのような大規模知識ベース(KB)には、数百万の構造化知識がある。
Knowledge Base Question Answering (KBQA)は、自然言語の質問を通じて、これらの貴重なKBにアクセスするためのユーザフレンドリな方法を提供する。
本稿では,KBLLaMAを開発した。KBLLaMAは,新しいKB知識を言語モデルに注入し,フレキシブルなエンドツーエンドKBQAを実現するためのフレームワークである。
論文 参考訳(メタデータ) (2024-06-20T22:22:41Z) - ChatKBQA: A Generate-then-Retrieve Framework for Knowledge Base Question Answering with Fine-tuned Large Language Models [19.85526116658481]
本稿では,新規かつ簡易な生成検索KBQAフレームワークであるChatKBQAを紹介する。
実験の結果,ChatKBQAは標準KBQAデータセット上で新たな最先端性能を実現することがわかった。
この研究は、LLMと知識グラフを組み合わせるための新しいパラダイムとして、解釈可能および知識要求型質問応答のパラダイムと見なすこともできる。
論文 参考訳(メタデータ) (2023-10-13T09:45:14Z) - FC-KBQA: A Fine-to-Coarse Composition Framework for Knowledge Base
Question Answering [24.394908238940904]
論理式の一般化能力と実行性を確保するため,KBQA (FC-KBQA) のためのファイン・ツー・コア・コンポジション・フレームワークを提案する。
FC-KBQA は GrailQA と WebQSP で最先端のパフォーマンスを新たに提供し、ベースラインの 4 倍の速度で動作している。
論文 参考訳(メタデータ) (2023-06-26T14:19:46Z) - SYGMA: System for Generalizable Modular Question Answering OverKnowledge
Bases [57.89642289610301]
SYGMAは、複数の知識ベースと複数のリアソニングタイプにまたがる汎用化を容易にするモジュラーアプローチである。
本システムの有効性を,DBpediaとWikidataの2つの異なる知識ベースに属するデータセットを用いて評価することで実証する。
論文 参考訳(メタデータ) (2021-09-28T01:57:56Z) - RnG-KBQA: Generation Augmented Iterative Ranking for Knowledge Base
Question Answering [57.94658176442027]
KBQAのランク・アンド・ジェネレートアプローチであるRnG-KBQAを提案する。
我々はGrailQA と WebQSP データセット上で,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2021-09-17T17:58:28Z) - Beyond I.I.D.: Three Levels of Generalization for Question Answering on
Knowledge Bases [63.43418760818188]
GrailQA.comは64,331の質問で、新しい大規模で高品質なデータセットをリリースしました。
BERTベースのKBQAモデルを提案する。
データセットとモデルの組み合わせにより、KBQAの一般化におけるBERTのような事前学習されたコンテキスト埋め込みの重要な役割を、初めて徹底的に検証し、実証することが可能になります。
論文 参考訳(メタデータ) (2020-11-16T06:36:26Z) - Learning Knowledge Bases with Parameters for Task-Oriented Dialogue
Systems [79.02430277138801]
知識ベース(KB)は、ユーザの要求を満たす上で重要な役割を担います。
エンド・ツー・エンドのシステムは直接KBを入力として使用するが、KBが数百のエントリより大きい場合にはスケールできない。
モデルパラメータに直接KBを埋め込む手法を提案する。
論文 参考訳(メタデータ) (2020-09-28T22:13:54Z) - A Survey on Complex Question Answering over Knowledge Base: Recent
Advances and Challenges [71.4531144086568]
知識ベース(KB)に対する質問回答(QA)は、自然言語の質問に自動的に答えることを目的としている。
研究者は、よりKBのトリプルと制約推論を必要とする単純な質問から複雑な質問へと注意を移した。
論文 参考訳(メタデータ) (2020-07-26T07:13:32Z) - Faithful Embeddings for Knowledge Base Queries [97.5904298152163]
理想的知識ベース(KB)の帰納的閉包は、KBが答えられる論理的クエリを正確に含んでいる。
実際にはKBは不完全かつ過剰な仕様であり、現実の答えを持つクエリには答えられない。
この新たなQEモジュールをニューラルな質問応答システムに挿入すると、最先端技術よりも大幅に改善されることを示す。
論文 参考訳(メタデータ) (2020-04-07T19:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。