論文の概要: Aligning LLMs for the Classroom with Knowledge-Based Retrieval -- A Comparative RAG Study
- arxiv url: http://arxiv.org/abs/2509.07846v1
- Date: Tue, 09 Sep 2025 15:22:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.376197
- Title: Aligning LLMs for the Classroom with Knowledge-Based Retrieval -- A Comparative RAG Study
- Title(参考訳): 知識に基づく検索型教室におけるLLMの調整 -RAGによる比較検討-
- Authors: Amay Jain, Liu Cui, Si Chen,
- Abstract要約: ChatGPTのような大規模な言語モデルは、教室での利用が増えているが、学生を誤解させる可能性のある時代遅れまたは製造された情報を提供することが多い。
本稿では,ベクトルベース検索とグラフベース検索の2つのパラダイムについて検討し,教室における質問応答のベストプラクティスを明らかにする。
- 参考スコア(独自算出の注目度): 2.4430880203388416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models like ChatGPT are increasingly used in classrooms, but they often provide outdated or fabricated information that can mislead students. Retrieval Augmented Generation (RAG) improves reliability of LLMs by grounding responses in external resources. We investigate two accessible RAG paradigms, vector-based retrieval and graph-based retrieval to identify best practices for classroom question answering (QA). Existing comparative studies fail to account for pedagogical factors such as educational disciplines, question types, and practical deployment costs. Using a novel dataset, EduScopeQA, of 3,176 questions across academic subjects, we measure performance on various educational query types, from specific facts to broad thematic discussions. We also evaluate system alignment with a dataset of systematically altered textbooks that contradict the LLM's latent knowledge. We find that OpenAI Vector Search RAG (representing vector-based RAG) performs well as a low-cost generalist, especially for quick fact retrieval. On the other hand, GraphRAG Global excels at providing pedagogically rich answers to thematic queries, and GraphRAG Local achieves the highest accuracy with the dense, altered textbooks when corpus integrity is critical. Accounting for the 10-20x higher resource usage of GraphRAG (representing graph-based RAG), we show that a dynamic branching framework that routes queries to the optimal retrieval method boosts fidelity and efficiency. These insights provide actionable guidelines for educators and system designers to integrate RAG-augmented LLMs into learning environments effectively.
- Abstract(参考訳): ChatGPTのような大規模な言語モデルは、教室での利用が増えているが、学生を誤解させる可能性のある時代遅れまたは製造された情報を提供することが多い。
Retrieval Augmented Generation (RAG) は、外部リソースの応答を基盤として、LCMの信頼性を向上させる。
本稿では,ベクトルベース検索とグラフベース検索の2つのパラダイムについて検討し,授業質問応答(QA)のベストプラクティスを明らかにする。
既存の比較研究は、教育の規律、質問タイプ、実践的な展開コストなどの教育的要因を説明できない。
学術領域に散在する3,176問の新たなデータセットであるEduScopeQAを用いて,特定の事実から幅広いテーマの議論に至るまで,様々な質問タイプのパフォーマンスを測定した。
また,LLMの潜在知識に反する系統的な教科書のデータセットとシステムアライメントを評価した。
OpenAI Vector Search RAG (representing vector-based RAG) は低コストのジェネラリストである。
一方、GraphRAG Globalは、テーマクエリに対する教育的にリッチな回答を提供することに長けており、GraphRAG Localは、コーパスの完全性が重要である場合に、高密度で変更された教科書で最高の精度を達成する。
グラフベースRAGを表現したグラフRAGの10~20倍のリソース利用率を考慮し,クエリを最適検索手法にルーティングする動的分岐フレームワークにより,信頼性と効率が向上することを示す。
これらの知見は,RAGを付加したLLMを学習環境に効果的に統合するための,教育者やシステムデザイナのための実用的なガイドラインを提供する。
関連論文リスト
- Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Pseudo-Knowledge Graph: Meta-Path Guided Retrieval and In-Graph Text for RAG-Equipped LLM [8.941718961724984]
Pseudo-Knowledge Graph (PKG)フレームワークはメタパス検索、イングラフテキスト、ベクトル検索を大規模言語モデルに統合する。
PKGはより豊かな知識表現を提供し、情報検索の精度を向上させる。
論文 参考訳(メタデータ) (2025-03-01T02:39:37Z) - SteLLA: A Structured Grading System Using LLMs with RAG [2.630522349105014]
本稿では,SteLLA (Structured Grading System Using LLMs with RAG) について述べる。
受験生の回答を含む実世界のデータセットを大学レベルの生物学コースから収集した。
実験により,本システムでは,人間の学級との相当な合意を達成でき,また,その問題で検討されたすべての知識点について,ブレークダウングレードとフィードバックを提供することができた。
論文 参考訳(メタデータ) (2025-01-15T19:24:48Z) - Simple Is Effective: The Roles of Graphs and Large Language Models in Knowledge-Graph-Based Retrieval-Augmented Generation [9.844598565914055]
大きな言語モデル(LLM)は強い推論能力を示すが、幻覚や時代遅れの知識のような制限に直面している。
本稿では、サブグラフを検索する知識グラフ(KG)ベースのRetrieval-Augmented Generation(RAG)フレームワークを拡張するSubgraphRAGを紹介する。
提案手法は,高効率かつフレキシブルなサブグラフ検索を実現するために,並列3重装飾機構を備えた軽量多層パーセプトロンを革新的に統合する。
論文 参考訳(メタデータ) (2024-10-28T04:39:32Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [66.93260816493553]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に焦点をあてて,完全性,幻覚,不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - Unsupervised Information Refinement Training of Large Language Models for Retrieval-Augmented Generation [128.01050030936028]
InFO-RAG という情報改質訓練手法を提案する。
InFO-RAGは低コストで、様々なタスクにまたがっている。
LLaMA2の性能を平均9.39%向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:24:38Z) - How to Build an Adaptive AI Tutor for Any Course Using Knowledge Graph-Enhanced Retrieval-Augmented Generation (KG-RAG) [5.305156933641317]
知的学習システム(ITS)におけるLarge Language Models (LLMs)は、パーソナライズされた教育に変革をもたらす機会を提供する。
現在の実装では、2つの重要な課題に直面している。
本稿では,構造化知識表現と文脈認識検索を統合した新しいフレームワークである知識グラフ強化検索(RAG)を提案する。
論文 参考訳(メタデータ) (2023-11-29T15:02:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。