論文の概要: Executable Knowledge Graphs for Replicating AI Research
- arxiv url: http://arxiv.org/abs/2510.17795v1
- Date: Mon, 20 Oct 2025 17:53:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.553629
- Title: Executable Knowledge Graphs for Replicating AI Research
- Title(参考訳): AI研究の再現のための実行可能な知識グラフ
- Authors: Yujie Luo, Zhuoyun Yu, Xuehai Wang, Yuqi Zhu, Ningyu Zhang, Lanning Wei, Lun Du, Da Zheng, Huajun Chen,
- Abstract要約: Executable Knowledge Graphs (xKG) は、科学文献から抽出された技術的洞察、コードスニペット、ドメイン固有の知識を自動的に統合するモジュラーでプラグイン可能な知識基盤である。
コードはhttps://github.com/zjunlp/xKGでリリースされる。
- 参考スコア(独自算出の注目度): 65.41207324831583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Replicating AI research is a crucial yet challenging task for large language model (LLM) agents. Existing approaches often struggle to generate executable code, primarily due to insufficient background knowledge and the limitations of retrieval-augmented generation (RAG) methods, which fail to capture latent technical details hidden in referenced papers. Furthermore, previous approaches tend to overlook valuable implementation-level code signals and lack structured knowledge representations that support multi-granular retrieval and reuse. To overcome these challenges, we propose Executable Knowledge Graphs (xKG), a modular and pluggable knowledge base that automatically integrates technical insights, code snippets, and domain-specific knowledge extracted from scientific literature. When integrated into three agent frameworks with two different LLMs, xKG shows substantial performance gains (10.9% with o3-mini) on PaperBench, demonstrating its effectiveness as a general and extensible solution for automated AI research replication. Code will released at https://github.com/zjunlp/xKG.
- Abstract(参考訳): AI研究の複製は、大規模言語モデル(LLM)エージェントにとって決定的に難しい課題である。
既存のアプローチはしばしば実行可能コードを生成するのに苦労するが、これは主に背景知識の不足と検索拡張生成法(RAG)の限界のためである。
さらに、従来のアプローチでは、実装レベルの重要なコード信号を見落とし、マルチグラニュラ検索と再利用をサポートする構造化された知識表現が欠けている傾向にある。
これらの課題を克服するために,我々は,科学的知見,コードスニペット,および科学文献から抽出されたドメイン固有の知識を自動的に統合するモジュール式でプラグイン可能な知識基盤であるExecutable Knowledge Graphs (xKG)を提案する。
2つの異なるLLMを持つ3つのエージェントフレームワークに統合されると、xKGはPaperBench上での大幅なパフォーマンス向上(10.9%とo3-mini)を示し、AI研究の自動複製のための汎用的で拡張可能なソリューションとしての有効性を示した。
コードはhttps://github.com/zjunlp/xKGでリリースされる。
関連論文リスト
- Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - R1-Searcher: Incentivizing the Search Capability in LLMs via Reinforcement Learning [87.30285670315334]
textbfR1-Searcherは、大規模言語モデルの検索能力を高めるために設計された、2段階の結果に基づく新しいRLアプローチである。
本フレームワークは, コールドスタート時に, プロセス報酬や蒸留を必要とせず, RLのみに依存している。
提案手法は, クローズドソースGPT-4o-miniと比較して, 従来の強力なRAG法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-03-07T17:14:44Z) - A Survey of Graph Retrieval-Augmented Generation for Customized Large Language Models [31.35013732481254]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)をカスタマイズするための有望なソリューションとして登場した。
本調査は,GraphRAG(Graph-based Retrieval-Augmented Generation)の系統的解析である。
論文 参考訳(メタデータ) (2025-01-21T06:25:21Z) - WeKnow-RAG: An Adaptive Approach for Retrieval-Augmented Generation Integrating Web Search and Knowledge Graphs [10.380692079063467]
本稿では,Web検索と知識グラフを統合したWeKnow-RAGを提案する。
まず,知識グラフの構造化表現と高次ベクトル検索の柔軟性を組み合わせることで,LLM応答の精度と信頼性を向上させる。
提案手法は,情報検索の効率と精度を効果的にバランスさせ,全体の検索プロセスを改善する。
論文 参考訳(メタデータ) (2024-08-14T15:19:16Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。