論文の概要: Autonomous Knowledge Graph Exploration with Adaptive Breadth-Depth Retrieval
- arxiv url: http://arxiv.org/abs/2601.13969v1
- Date: Tue, 20 Jan 2026 13:46:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.330938
- Title: Autonomous Knowledge Graph Exploration with Adaptive Breadth-Depth Retrieval
- Title(参考訳): Adaptive Breadth-Depth Retrievalを用いた自律的知識グラフ探索
- Authors: Joaquín Polonuer, Lucas Vittor, Iñaki Arango, Ayush Noori, David A. Clifton, Luciano Del Corro, Marinka Zitnik,
- Abstract要約: ARK: アダプティブ・リトリバー・オブ・ナレッジ(Adaptive Retriever of Knowledge)は、この広い範囲のトレードオフを言語モデルで制御します。
ARKは、脆弱な種の選択に依存することなく、幅指向の発見と深さ指向の展開を交互に行う。
ARKは平均Hit@1と67.4の平均MRRを59.1%、平均Hit@1を31.4%、平均MRRを28.0%改善している。
- 参考スコア(独自算出の注目度): 26.815539094904278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieving evidence for language model queries from knowledge graphs requires balancing broad search across the graph with multi-hop traversal to follow relational links. Similarity-based retrievers provide coverage but remain shallow, whereas traversal-based methods rely on selecting seed nodes to start exploration, which can fail when queries span multiple entities and relations. We introduce ARK: Adaptive Retriever of Knowledge, an agentic KG retriever that gives a language model control over this breadth-depth tradeoff using a two-operation toolset: global lexical search over node descriptors and one-hop neighborhood exploration that composes into multi-hop traversal. ARK alternates between breadth-oriented discovery and depth-oriented expansion without depending on a fragile seed selection, a pre-set hop depth, or requiring retrieval training. ARK adapts tool use to queries, using global search for language-heavy queries and neighborhood exploration for relation-heavy queries. On STaRK, ARK reaches 59.1% average Hit@1 and 67.4 average MRR, improving average Hit@1 by up to 31.4% and average MRR by up to 28.0% over retrieval-based and agentic training-free methods. Finally, we distill ARK's tool-use trajectories from a large teacher into an 8B model via label-free imitation, improving Hit@1 by +7.0, +26.6, and +13.5 absolute points over the base 8B model on AMAZON, MAG, and PRIME datasets, respectively, while retaining up to 98.5% of the teacher's Hit@1 rate.
- Abstract(参考訳): 知識グラフから言語モデルクエリのエビデンスを取得するには、リレーショナルリンクに従うために、グラフを横断する広い探索とマルチホップトラバースのバランスをとる必要がある。
類似性ベースのレトリバーはカバレッジを提供するが、浅いままだが、トラバーサルベースのメソッドは探索を開始するためにシードノードを選択することに依存しており、クエリが複数のエンティティやリレーションシップにまたがる場合に失敗する可能性がある。
ArK: Adaptive Retriever of Knowledge, エージェントKGレトリバーは, ノード記述子上の大域的語彙探索と, マルチホップトラバーサルを構成するワンホップ近傍探索という2つの操作ツールセットを用いて, この広帯域のトレードオフを言語モデルで制御する。
ARKは、脆弱な種の選択、予め設定されたホップ深さ、または検索訓練を必要とせずに、幅指向の発見と深さ指向の展開を交互に行う。
ARKは、言語の多いクエリのグローバル検索と関係の多いクエリの近隣探索を使用して、クエリにツールの使用を適用する。
STaRKでは、ARKの平均Hit@1と67.4の平均MRRが59.1%に達し、平均Hit@1を31.4%、平均MRRを28.0%改善している。
最後に,大規模教師のツール使用軌跡をラベルフリーの模倣により8Bモデルに抽出し,AMAZON,MAG,PRIMEの8Bモデル上でHit@1を+7.0,+26.6,+13.5絶対点に改良し,教師のHit@1率の98.5%を維持した。
関連論文リスト
- Think Before You Retrieve: Learning Test-Time Adaptive Search with Small Language Models [28.80331720382804]
我々は,学習した検索戦略を通じて,コンパクトなモデルによる反復的検索を可能にするトレーニングフレームワークOrionを紹介する。
Orionは、合成軌道生成と教師付き微調整を組み合わせることで、モデルの多様な探索パターンを促進する。
トレーニングデータの3%しか使用できないにも関わらず、私たちの1.2BモデルはSciFactで77.6%の成功を達成しています。
論文 参考訳(メタデータ) (2025-11-10T19:49:55Z) - Search-on-Graph: Iterative Informed Navigation for Large Language Model Reasoning on Knowledge Graphs [26.0585592684229]
大規模言語モデル(LLM)は、知識集約型マルチホップ質問では信頼性が保たれていない印象的な推論能力を示している。
本稿では,LLMの反復的なグラフナビゲーションを実現するための,シンプルかつ効果的なフレームワークである検索オングラフ(SoG)を提案する。
Wikidataベンチマーク(以前のベストメソッドよりも+16%改善)とFreebaseベンチマークの一貫性のある改善は特に顕著です。
論文 参考訳(メタデータ) (2025-10-09T21:20:16Z) - Optimized Text Embedding Models and Benchmarks for Amharic Passage Retrieval [49.1574468325115]
トレーニング済みのAmharic BERTとRoBERTaのバックボーンをベースとした,Amharic固有の高密度検索モデルを提案する。
提案したRoBERTa-Base-Amharic-Embedモデル(110Mパラメータ)は,MRR@10の相対的な改善を17.6%達成する。
RoBERTa-Medium-Amharic-Embed (42M)のようなよりコンパクトな派生型は13倍以上小さいまま競争力を維持している。
論文 参考訳(メタデータ) (2025-05-25T23:06:20Z) - Tool-Augmented Reward Modeling [58.381678612409]
本稿では,外部環境へのアクセスによるRMの強化により,制約に対処するツール拡張された嗜好モデリング手法であるThemisを提案する。
我々の研究は、外部ツールをRMに統合し、様々な外部ソースとの相互作用を可能にすることを目的としている。
人間の評価では、テミスで訓練されたRLHFはベースラインと比較して平均32%の勝利率を得る。
論文 参考訳(メタデータ) (2023-10-02T09:47:40Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - IRLI: Iterative Re-partitioning for Learning to Index [104.72641345738425]
分散環境でのロードバランスとスケーラビリティを維持しながら、高い精度を得る方法とのトレードオフが必要だ。
クエリ項目関連データから直接バケットを学習することで、アイテムを反復的に分割するIRLIと呼ばれる新しいアプローチを提案する。
我々は,irliが極めて自然な仮定の下で高い確率で正しい項目を検索し,優れた負荷分散を実現することを数学的に示す。
論文 参考訳(メタデータ) (2021-03-17T23:13:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。