論文の概要: KnowCoder-V2: Deep Knowledge Analysis
- arxiv url: http://arxiv.org/abs/2506.06881v1
- Date: Sat, 07 Jun 2025 18:01:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:47.061533
- Title: KnowCoder-V2: Deep Knowledge Analysis
- Title(参考訳): KnowCoder-V2: 深い知識分析
- Authors: Zixuan Li, Wenxuan Liu, Long Bai, Chunmao Zhang, Wei Li, Fenghui Zhang, Quanxin Jin, Ruoyun He, Zhuo Chen, Zhilei Hu, Fei Wang, Bingbing Xu, Xuhui Jiang, Xiaolong Jin, Jiafeng Guo, Xueqi Cheng,
- Abstract要約: 我々は、深い知識分析能力を持つ深層研究を支援するtextbfKnowledgeable textbfDeep textbfResearch (textbfKDR) フレームワークを提案する。
大規模なドメイン関連データをオフラインで体系的な知識にプリプロセスするために、独立した知識組織フェーズを導入する。
そして、オンラインの方法で複雑な知識計算を行うための、新たな推論ステップによって、ディープリサーチを拡張します。
- 参考スコア(独自算出の注目度): 64.63893361811968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep knowledge analysis tasks always involve the systematic extraction and association of knowledge from large volumes of data, followed by logical reasoning to discover insights. However, to solve such complex tasks, existing deep research frameworks face three major challenges: 1) They lack systematic organization and management of knowledge; 2) They operate purely online, making it inefficient for tasks that rely on shared and large-scale knowledge; 3) They cannot perform complex knowledge computation, limiting their abilities to produce insightful analytical results. Motivated by these, in this paper, we propose a \textbf{K}nowledgeable \textbf{D}eep \textbf{R}esearch (\textbf{KDR}) framework that empowers deep research with deep knowledge analysis capability. Specifically, it introduces an independent knowledge organization phase to preprocess large-scale, domain-relevant data into systematic knowledge offline. Based on this knowledge, it extends deep research with an additional kind of reasoning steps that perform complex knowledge computation in an online manner. To enhance the abilities of LLMs to solve knowledge analysis tasks in the above framework, we further introduce \textbf{\KCII}, an LLM that bridges knowledge organization and reasoning via unified code generation. For knowledge organization, it generates instantiation code for predefined classes, transforming data into knowledge objects. For knowledge computation, it generates analysis code and executes on the above knowledge objects to obtain deep analysis results. Experimental results on more than thirty datasets across six knowledge analysis tasks demonstrate the effectiveness of \KCII. Moreover, when integrated into the KDR framework, \KCII can generate high-quality reports with insightful analytical results compared to the mainstream deep research framework.
- Abstract(参考訳): 深い知識分析タスクは、常に大量のデータから知識を体系的に抽出し、関連付ける。
しかし、そのような複雑な課題を解決するために、既存のディープリサーチフレームワークは3つの大きな課題に直面している。
1) 体系的な組織や知識の管理が欠如している。
2 純粋にオンラインで運用し、共有及び大規模知識に依存したタスクに非効率にする。
3)複雑な知識計算は行えず,洞察に富んだ分析結果を生み出す能力に限界がある。
これらのことから,本論文では,深い知識分析能力を持つ深層研究を支援するためのフレームワークである。
具体的には、大規模なドメイン関連データを体系的な知識にオフラインで前処理するために、独立した知識組織フェーズを導入する。
この知識に基づいて、オンラインの方法で複雑な知識計算を行うための追加の推論ステップにより、ディープリサーチを拡張します。
上記のフレームワークにおける知識分析タスクを解くためのLLMの能力を高めるために,知識組織を橋渡しし,統一コード生成による推論を行うLLMである \textbf{\KCII} を導入する。
知識組織では、事前に定義されたクラスのインスタンスコードを生成し、データを知識オブジェクトに変換する。
知識計算では、分析コードを生成し、上記の知識オブジェクト上で実行し、深い分析結果を得る。
6つの知識分析タスクにまたがる30以上のデータセットの実験結果から,KCIIの有効性が示された。
さらに、KDRフレームワークに統合されると、本主流の深層研究フレームワークと比較して、洞察に富んだ分析結果で高品質なレポートを生成することができる。
関連論文リスト
- A Comprehensive Survey on Integrating Large Language Models with Knowledge-Based Methods [4.686190098233778]
大規模言語モデル(LLM)は構造化知識ベースシステムと統合することができる。
本稿では, LLMと知識基盤の関係を調査し, 実際に適用できる方法について検討し, 技術的, 運用的, 倫理的課題について考察する。
これは、データコンテキスト化、モデル精度、知識リソースの利用に関する構造化知識ベースシステムに生成AIを組み込むことの利点を示す。
論文 参考訳(メタデータ) (2025-01-19T23:25:21Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Meta-Cognitive Analysis: Evaluating Declarative and Procedural Knowledge in Datasets and Large Language Models [47.33702059464214]
宣言的知識と手続き的知識はメタ認知理論の2つの重要な部分である。
本稿では,LLMに対する基礎的知識と実効性評価について述べる。
論文 参考訳(メタデータ) (2024-03-14T05:34:35Z) - InfuserKI: Enhancing Large Language Models with Knowledge Graphs via Infuser-Guided Knowledge Integration [58.61492157691623]
知識を統合する手法が開発され、外部モジュールを通してLLMをドメイン固有の知識グラフに拡張した。
本研究は,未知の知識をLLMに効率的に統合することで,未知の知識を不要に重複させるという,新たな問題に焦点をあてる。
新しい知識を導入するリスクは、既存の知識を忘れることである。
論文 参考訳(メタデータ) (2024-02-18T03:36:26Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Knowledge Crosswords: Geometric Knowledge Reasoning with Large Language Models [49.23348672822087]
構造化された事実制約に縛られた不完全な知識ネットワークからなるベンチマークである知識クロスワードを提案する。
幾何学的知識推論の新しい設定は、既存の原子/線形マルチホップQAを超える新しいLM能力を必要とする。
我々は,既存のLLMと知識クロスワードのアプローチを評価するために,広範囲な実験を行っている。
論文 参考訳(メタデータ) (2023-10-02T15:43:53Z) - Contextualized Knowledge-aware Attentive Neural Network: Enhancing
Answer Selection with Knowledge [77.77684299758494]
ナレッジグラフ(KG)による外部知識による回答選択モデル向上のアプローチを幅広く検討しています。
まず、KGの外部知識とテキスト情報との密接な相互作用を考慮し、QA文表現を学習するコンテキスト知識相互作用学習フレームワークであるナレッジアウェアニューラルネットワーク(KNN)を紹介します。
KG情報の多様性と複雑性に対処するために, カスタマイズされたグラフ畳み込みネットワーク (GCN) を介して構造情報を用いた知識表現学習を改善し, コンテキストベースおよび知識ベースの文表現を総合的に学習する コンテキスト型知識認識型アテンシブニューラルネットワーク (CKANN) を提案する。
論文 参考訳(メタデータ) (2021-04-12T05:52:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。