論文の概要: Knowledge Reasoning of Large Language Models Integrating Graph-Structured Information for Pest and Disease Control in Tobacco
- arxiv url: http://arxiv.org/abs/2512.21837v1
- Date: Fri, 26 Dec 2025 02:48:38 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 12:04:34.781871
- Title: Knowledge Reasoning of Large Language Models Integrating Graph-Structured Information for Pest and Disease Control in Tobacco
- Title(参考訳): タバコの害虫対策のためのグラフ構造化情報の統合型大規模言語モデルの知識推論
- Authors: Siyu Li, Chenwei Song, Wan Zhou, Xinyi Liu,
- Abstract要約: 本稿では,タバコ害虫の知識推論にグラフ構造化情報を統合する大規模言語モデル (LLM) を提案する。
提案手法は,ドメイン固有の知識グラフから構造化情報を明示的に組み込むことにより,知識検索と推論を強化する。
- 参考スコア(独自算出の注目度): 8.03308137619444
- License:
- Abstract: This paper proposes a large language model (LLM) approach that integrates graph-structured information for knowledge reasoning in tobacco pest and disease control. Built upon the GraphRAG framework, the proposed method enhances knowledge retrieval and reasoning by explicitly incorporating structured information from a domain-specific knowledge graph. Specifically, LLMs are first leveraged to assist in the construction of a tobacco pest and disease knowledge graph, which organizes key entities such as diseases, symptoms, control methods, and their relationships. Based on this graph, relevant knowledge is retrieved and integrated into the reasoning process to support accurate answer generation. The Transformer architecture is adopted as the core inference model, while a graph neural network (GNN) is employed to learn expressive node representations that capture both local and global relational information within the knowledge graph. A ChatGLM-based model serves as the backbone LLM and is fine-tuned using LoRA to achieve parameter-efficient adaptation. Extensive experimental results demonstrate that the proposed approach consistently outperforms baseline methods across multiple evaluation metrics, significantly improving both the accuracy and depth of reasoning, particularly in complex multi-hop and comparative reasoning scenarios.
- Abstract(参考訳): 本稿では,タバコ害虫の知識推論にグラフ構造化情報を統合する大規模言語モデル (LLM) を提案する。
提案手法は,GraphRAGフレームワーク上に構築され,ドメイン固有の知識グラフから構造化情報を明示的に組み込むことにより,知識検索と推論を強化する。
特に、LSMは、まず、病気、症状、制御方法、およびそれらの関係といった重要なエンティティを整理するタバコ害虫および疾患知識グラフの構築を支援するために活用される。
このグラフに基づいて、関連する知識を検索し、推論プロセスに統合し、正確な回答生成を支援する。
Transformerアーキテクチャはコア推論モデルとして採用され、グラフニューラルネットワーク(GNN)は、知識グラフ内の局所的およびグローバルな関係情報をキャプチャする表現ノード表現を学習するために使用される。
ChatGLM ベースのモデルはバックボーン LLM として機能し、パラメータ効率の適応を実現するために LoRA を用いて微調整される。
大規模な実験結果から,提案手法は複数の評価指標のベースライン手法を一貫して上回り,特に複雑なマルチホップおよび比較推論のシナリオにおいて,推論の精度と深さの両方を著しく向上させることが示された。
関連論文リスト
- Large Language Model Enhanced Graph Invariant Contrastive Learning for Out-of-Distribution Recommendation [41.17308511272247]
InvGCLLMは、データ駆動モデルと知識駆動LLMの強みを統合する革新的な因果学習フレームワークである。
InvGCLLMは配布外リコメンデーションの大幅な改善を実現し、一貫して最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2025-11-23T04:24:58Z) - G-reasoner: Foundation Models for Unified Reasoning over Graph-structured Knowledge [88.82814893945077]
大規模言語モデル(LLM)は複雑な推論において優れているが、静的かつ不完全なパラメトリック知識によって制限される。
最近のグラフ強化RAG (GraphRAG) は、このギャップを補足したグラフを構築し、LLMがそれらを推論できるようにする。
G-reasonerは、様々なグラフ構造化知識を推論するためにグラフと言語基盤モデルを統合した統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-29T04:38:12Z) - GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Injecting Knowledge Graphs into Large Language Models [0.0]
我々は,大規模言語モデル内のグラフ埋め込みをトークンとして統合するエンコーディング技術を構築した。
我々のアプローチは、モデルに依存しず、リソース効率が良く、どのLLMとも互換性がある。
論文 参考訳(メタデータ) (2025-05-12T13:31:26Z) - Graph Foundation Models for Recommendation: A Comprehensive Survey [55.70529188101446]
大規模言語モデル(LLM)は自然言語を処理し、理解するために設計されており、どちらも非常に効果的で広く採用されている。
最近の研究はグラフ基礎モデル(GFM)に焦点を当てている。
GFM は GNN と LLM の強みを統合し,複雑な RS 問題をより効率的にモデル化する。
論文 参考訳(メタデータ) (2025-02-12T12:13:51Z) - Advanced RAG Models with Graph Structures: Optimizing Complex Knowledge Reasoning and Text Generation [7.3491970177535]
本研究では,グラフニューラルネットワーク(GNN)を組み合わせたグラフ構造データ処理手法を提案する。
この結果から,本論文で提案するグラフベースRAGモデルは,品質,知識の整合性,推論能力の点で従来の世代モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-11-06T00:23:55Z) - G-SAP: Graph-based Structure-Aware Prompt Learning over Heterogeneous Knowledge for Commonsense Reasoning [8.02547453169677]
本稿では,G-SAP という名称のコモンセンス推論のためのグラフベース構造認識プロンプト学習モデルを提案する。
特にエビデンスグラフは、ConceptNet、Wikipedia、Cambridge Dictionaryといった複数の知識ソースを統合することで構築される。
その結果、既存のモデル、特にOpenbookQAデータセット上のSoTA LM+GNNsモデルよりも6.12%改善された。
論文 参考訳(メタデータ) (2024-05-09T08:28:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。