論文の概要: Pandora: Leveraging Code-driven Knowledge Transfer for Unified Structured Knowledge Reasoning
- arxiv url: http://arxiv.org/abs/2508.17905v1
- Date: Mon, 25 Aug 2025 11:22:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.745443
- Title: Pandora: Leveraging Code-driven Knowledge Transfer for Unified Structured Knowledge Reasoning
- Title(参考訳): Pandora: 統一された構造化知識推論のためのコード駆動の知識伝達を活用する
- Authors: Yongrui Chen, Junhao He, Linbo Fu, Shenyu Zhang, Rihui Jin, Xinbang Dai, Jiaqi Li, Dehai Min, Nan Hu, Yuxin Zhang, Guilin Qi, Yi Huang, Tongtong Wu,
- Abstract要約: Unified Structured Knowledge Reasoningは、構造化されたソースを統一的に使用することによって、自然言語の質問に答えることを目的としている。
既存の方法はタスク固有の戦略や振る舞い表現に依存しており、異なるSKRタスク間の障壁を分解する能力を妨げている。
2つの重要なイノベーションを活用することで、既存のメソッドの制限に対処する新しいUSKRフレームワークであるtextscPandoraを紹介します。
- 参考スコア(独自算出の注目度): 36.97767174793297
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unified Structured Knowledge Reasoning (USKR) aims to answer natural language questions by using structured sources such as tables, databases, and knowledge graphs in a unified way. Existing USKR methods rely on task-specific strategies or bespoke representations, which hinder their ability to dismantle barriers between different SKR tasks, thereby constraining their overall performance in cross-task scenarios. In this paper, we introduce \textsc{Pandora}, a novel USKR framework that addresses the limitations of existing methods by leveraging two key innovations. First, we propose a code-based unified knowledge representation using \textsc{Python}'s \textsc{Pandas} API, which aligns seamlessly with the pre-training of LLMs. This representation facilitates a cohesive approach to handling different structured knowledge sources. Building on this foundation, we employ knowledge transfer to bolster the unified reasoning process of LLMs by automatically building cross-task memory. By adaptively correcting reasoning using feedback from code execution, \textsc{Pandora} showcases impressive unified reasoning capabilities. Extensive experiments on six widely used benchmarks across three SKR tasks demonstrate that \textsc{Pandora} outperforms existing unified reasoning frameworks and competes effectively with task-specific methods.
- Abstract(参考訳): Unified Structured Knowledge Reasoning (USKR)は、テーブル、データベース、知識グラフなどの構造化されたソースを統一的に利用することで、自然言語の質問に答えることを目的としている。
既存のUSKRメソッドはタスク固有の戦略やbespoke表現に依存しているため、異なるSKRタスク間のバリアを分解できないため、クロスタスクシナリオでの全体的なパフォーマンスが制限される。
本稿では,2つの重要な革新を生かして既存の手法の限界に対処する,新しいUSKRフレームワークである‘textsc{Pandora} を紹介する。
まず, LLMの事前学習とシームレスに協調する, \textsc{Python} の \textsc{Pandas} API を用いたコードベース統一知識表現を提案する。
この表現は、異なる構造化知識ソースを扱うための凝集的なアプローチを促進する。
この基礎の上に構築した知識伝達を用いて,マルチタスクメモリを自動構築することで,LLMの統一的推論プロセスを強化する。
コード実行からのフィードバックを使って推論を適応的に修正することで、 \textsc{Pandora} は印象的な統一された推論機能を示す。
3つのSKRタスクにまたがる6つの広く使用されているベンチマークに関する大規模な実験では、‘textsc{Pandora} が既存の統一推論フレームワークより優れており、タスク固有のメソッドと効果的に競合することを示した。
関連論文リスト
- Text-to-SQL Task-oriented Dialogue Ontology Construction [7.216568937838859]
本稿では,タスク指向対話構築手法であるTeQoDOを紹介する。
自律的にTODをスクラッチから構築する。
論文 参考訳(メタデータ) (2025-07-31T09:08:59Z) - KAG-Thinker: Interactive Thinking and Deep Reasoning in LLMs via Knowledge-Augmented Generation [35.555200530999365]
我々は、KAG-Thinkerを導入し、KAGをマルチターン対話型思考と、専用パラメータライト大言語モデル(LLM)を利用した深い推論フレームワークにアップグレードする。
提案手法は,複雑な問題を解くための構造化思考プロセスを構築し,推論過程の論理的一貫性と文脈的整合性を高める。
論文 参考訳(メタデータ) (2025-06-21T14:58:53Z) - Pandora: A Code-Driven Large Language Model Agent for Unified Reasoning Across Diverse Structured Knowledge [18.61790682983834]
Unified Structured Knowledge Reasoning (USKR)は、テーブル、データベース、知識グラフなどの構造化されたソースを統一的に利用することで、自然言語の質問(NLQ)に答えることを目的としている。
既存のUSKRメソッドは、タスク固有の戦略を採用するか、SKRタスク間の知識伝達を活用するのに苦労するカスタム定義の表現に依存している。
本稿では、textscPythonのtextscPandas APIを利用して、統一知識表現を構築する、textscPandoraという新しいUSKRフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:18:09Z) - StructRAG: Boosting Knowledge Intensive Reasoning of LLMs via Inference-time Hybrid Information Structurization [94.31508613367296]
Retrieval-augmented Generation(RAG)は、大規模言語モデル(LLM)を効果的に強化する鍵となる手段である。
本稿では,手前のタスクに対して最適な構造型を識別し,元の文書をこの構造化形式に再構成し,その結果に基づいて回答を推測するStructRAGを提案する。
実験の結果、StructRAGは最先端のパフォーマンスを実現し、特に挑戦的なシナリオに優れていた。
論文 参考訳(メタデータ) (2024-10-11T13:52:44Z) - A Knowledge-Injected Curriculum Pretraining Framework for Question Answering [70.13026036388794]
本稿では,知識に基づく質問応答タスクの総合的なKG学習と活用を実現するための一般知識注入型カリキュラム事前学習フレームワーク(KICP)を提案する。
KIモジュールはまずKG中心の事前学習コーパスを生成してLMに知識を注入し、プロセスを3つの重要なステップに一般化する。
KAモジュールは、アダプタを備えたLMで生成されたコーパスから知識を学習し、元の自然言語理解能力を維持できる。
CRモジュールは人間の推論パターンに従って3つのコーパスを構築する。
論文 参考訳(メタデータ) (2024-03-11T03:42:03Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - TegTok: Augmenting Text Generation via Task-specific and Open-world
Knowledge [83.55215993730326]
本稿では,タスク固有およびオープンワールド知識(TegTok)によるTExt生成の統一化を提案する。
本モデルでは,2種類の知識ソースからの知識エントリを高密度検索により選択し,それぞれ入力エンコーディングと出力デコーディングの段階に注入する。
論文 参考訳(メタデータ) (2022-03-16T10:37:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。