論文の概要: The Role of Exploration Modules in Small Language Models for Knowledge Graph Question Answering
- arxiv url: http://arxiv.org/abs/2509.07399v1
- Date: Tue, 09 Sep 2025 05:26:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.185614
- Title: The Role of Exploration Modules in Small Language Models for Knowledge Graph Question Answering
- Title(参考訳): 知識グラフ質問応答のための小言語モデルにおける探索モジュールの役割
- Authors: Yi-Jie Cheng, Oscar Chew, Yun-Nung Chen,
- Abstract要約: KGに基づく質問応答におけるSLM(Small Language Model)に対する既存の統合手法の能力について検討する。
この制限に対処するため,単純で効率的な探索モジュールを提案する。
実験により,これらの軽量モジュールは小言語モデルの性能を効果的に向上することが示された。
- 参考スコア(独自算出の注目度): 19.009534602200862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integrating knowledge graphs (KGs) into the reasoning processes of large language models (LLMs) has emerged as a promising approach to mitigate hallucination. However, existing work in this area often relies on proprietary or extremely large models, limiting accessibility and scalability. In this study, we investigate the capabilities of existing integration methods for small language models (SLMs) in KG-based question answering and observe that their performance is often constrained by their limited ability to traverse and reason over knowledge graphs. To address this limitation, we propose leveraging simple and efficient exploration modules to handle knowledge graph traversal in place of the language model itself. Experiment results demonstrate that these lightweight modules effectively improve the performance of small language models on knowledge graph question answering tasks. Source code: https://github.com/yijie-cheng/SLM-ToG/.
- Abstract(参考訳): 知識グラフ(KG)を大規模言語モデル(LLM)の推論プロセスに統合することは幻覚を緩和するための有望なアプローチとして現れている。
しかし、この分野の既存の作業は、アクセシビリティとスケーラビリティを制限し、プロプライエタリまたは極端に大きなモデルに依存していることが多い。
本研究では,KGに基づく質問応答におけるSLM(Small Language Model)に対する既存の統合手法の能力について検討し,知識グラフをトラバースし,推論する能力の制限により,その性能が制約されることをよく観察する。
この制限に対処するため,言語モデル自体の代わりに知識グラフトラバースを扱うために,シンプルで効率的な探索モジュールを提案する。
実験の結果,これらの軽量モジュールは知識グラフ質問応答タスクにおいて,小言語モデルの性能を効果的に向上することが示された。
ソースコード:https://github.com/yijie-cheng/SLM-ToG/。
関連論文リスト
- CODIS: Benchmarking Context-Dependent Visual Comprehension for Multimodal Large Language Models [58.95889895912716]
我々は、自由形式のテキストで提供されるコンテキストを用いて視覚的理解を高めるモデルの有効性を評価するために、CODISと名付けられた新しいベンチマークを導入する。
以上の結果から,MLLMは必ずしも人体性能に劣っていることが示唆された。
このことは、MLLMが視覚を文脈依存的に理解する能力を高めることの必要性を浮き彫りにする。
論文 参考訳(メタデータ) (2024-02-21T08:21:12Z) - GLaM: Fine-Tuning Large Language Models for Domain Knowledge Graph Alignment via Neighborhood Partitioning and Generative Subgraph Encoding [39.67113788660731]
グラフ対応LAnguage Models (GLaM) を開発するためのフレームワークを紹介する。
特定のグラフに基づく知識でモデルを構築することは、構造に基づく推論のためのモデルの能力を拡張することを実証する。
論文 参考訳(メタデータ) (2024-02-09T19:53:29Z) - Fine-grained Stateful Knowledge Exploration: Effective and Efficient Graph Retrieval with Large Language Models [19.049828741139425]
大きな言語モデル(LLM)は印象的な能力を示していますが、その知識を更新することは大きな課題です。
既存のほとんどの手法では、知識グラフから関連する知識を漸進的に取り出すために、問題全体を目的として扱うパラダイムを使用している。
本研究では,細粒度ステートフル知識探索のための新しいパラダイムであるFiSKEを提案する。
論文 参考訳(メタデータ) (2024-01-24T13:36:50Z) - Graph Neural Prompting with Large Language Models [32.97391910476073]
Graph Neural Prompting (GNP)は、知識グラフから有益な知識を学ぶために、事前訓練された言語モデルを支援するための新しいプラグアンドプレイ方式である。
複数のデータセットに対する大規模な実験は、常識的および生物医学的推論タスクにおいて、GNPの優位性を示す。
論文 参考訳(メタデータ) (2023-09-27T06:33:29Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。