論文の概要: Probing the Knowledge Boundary: An Interactive Agentic Framework for Deep Knowledge Extraction
- arxiv url: http://arxiv.org/abs/2602.00959v1
- Date: Sun, 01 Feb 2026 01:43:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.491747
- Title: Probing the Knowledge Boundary: An Interactive Agentic Framework for Deep Knowledge Extraction
- Title(参考訳): 知識境界の探索: 深い知識抽出のための対話型エージェントフレームワーク
- Authors: Yuheng Yang, Siqi Zhu, Tao Feng, Ge Liu, Jiaxuan You,
- Abstract要約: 本稿では,大規模言語モデルの知識を体系的に抽出し,定量化する対話型エージェントフレームワークを提案する。
本手法は,異なる粒度で知識を探索する4つの適応探索ポリシーを含む。
我々は、より大きなモデルが常により多くの知識を抽出する明確な知識スケーリング法を観察する。
- 参考スコア(独自算出の注目度): 29.717986496967978
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) can be seen as compressed knowledge bases, but it remains unclear what knowledge they truly contain and how far their knowledge boundaries extend. Existing benchmarks are mostly static and provide limited support for systematic knowledge probing. In this paper, we propose an interactive agentic framework to systematically extract and quantify the knowledge of LLMs. Our method includes four adaptive exploration policies to probe knowledge at different granularities. To ensure the quality of extracted knowledge, we introduce a three-stage knowledge processing pipeline that combines vector-based filtering to remove exact duplicates, LLM-based adjudication to resolve ambiguous semantic overlaps, and domain-relevance auditing to retain valid knowledge units. Through extensive experiments, we find that recursive taxonomy is the most effective exploration strategy. We also observe a clear knowledge scaling law, where larger models consistently extract more knowledge. In addition, we identify a Pass@1-versus-Pass@k trade-off: domain-specialized models achieve higher initial accuracy but degrade rapidly, while general-purpose models maintain stable performance during extended extraction. Finally, our results show that differences in training data composition lead to distinct and measurable knowledge profiles across model families.
- Abstract(参考訳): LLM(Large Language Models)は、圧縮された知識ベースと見なすことができるが、それらが本当にどのような知識を含んでいるのか、その知識境界がどこまで広がるのかは、いまだ不明である。
既存のベンチマークは大部分が静的であり、体系的な知識探索を限定的にサポートする。
本稿では,LLMの知識を体系的に抽出し,定量化する対話型エージェントフレームワークを提案する。
本手法は,異なる粒度で知識を探索する4つの適応探索ポリシーを含む。
抽出された知識の質を確保するため,ベクトルベースのフィルタリングを組み合わせて正確な重複を除去する3段階の知識処理パイプライン,曖昧な意味的重複を解決するLLMに基づく適応,有効な知識単位を維持するためのドメイン関連監査を導入する。
広範囲にわたる実験により、再帰的な分類が最も効果的な探索戦略であることが判明した。
我々はまた、より大きなモデルが一貫してより多くの知識を抽出する明確な知識スケーリング法を観察する。
さらに、Pass@1-versus-Pass@kのトレードオフとして、ドメイン特化モデルでは初期精度が向上するが、高速に劣化する一方、汎用モデルは拡張抽出時に安定した性能を維持する。
最後に,本研究の結果から,学習データ構成の違いが,モデルファミリ間で異なる,測定可能な知識プロファイルをもたらすことが明らかとなった。
関連論文リスト
- Knowledge Homophily in Large Language Models [75.12297135039776]
大規模言語モデル(LLM)における類似知識のホモフィリパターンについて検討する。
我々は LLM の知識を三重項レベルと実体レベルの両方の知識チェックを通じてグラフ表現にマッピングする。
このホモフィリ原理により、三重項の実体レベルの知識度スコアを推定するグラフニューラルネットワーク(GNN)回帰モデルを提案する。
論文 参考訳(メタデータ) (2025-09-28T09:40:27Z) - Unveiling Knowledge Utilization Mechanisms in LLM-based Retrieval-Augmented Generation [77.10390725623125]
検索強化世代(RAG)は知識範囲の拡大に広く利用されている。
RAGは、オープンドメインの質問応答のような知識集約的なタスクを約束しているので、複雑なタスクやインテリジェントアシスタントへの幅広い応用は、その実用性をさらに進歩させてきた。
本稿では、RAGが内部(パラメトリック)知識と外部(検索)知識を統合する本質的なメカニズムを体系的に検討する。
論文 参考訳(メタデータ) (2025-05-17T13:13:13Z) - KEHRL: Learning Knowledge-Enhanced Language Representations with Hierarchical Reinforcement Learning [32.086825891769585]
知識強化事前学習言語モデル(KEPLM)は知識グラフ(KG)から関係トリプルを利用する
従来の研究は、知識の強化を2つの独立した操作、すなわち知識注入と知識統合として扱う。
本稿では,不正確な知識や無関係な知識の注入を避けるために,知識注入位置の検出と外部知識のモデルへの統合という課題を共同で解決する。
論文 参考訳(メタデータ) (2024-06-24T07:32:35Z) - Fine-grained Stateful Knowledge Exploration: Effective and Efficient Graph Retrieval with Large Language Models [19.049828741139425]
大きな言語モデル(LLM)は印象的な能力を示していますが、その知識を更新することは大きな課題です。
既存のほとんどの手法では、知識グラフから関連する知識を漸進的に取り出すために、問題全体を目的として扱うパラダイムを使用している。
本研究では,細粒度ステートフル知識探索のための新しいパラダイムであるFiSKEを提案する。
論文 参考訳(メタデータ) (2024-01-24T13:36:50Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。