論文の概要: Small Language Models for Curriculum-based Guidance
- arxiv url: http://arxiv.org/abs/2510.02347v1
- Date: Sat, 27 Sep 2025 11:23:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.023638
- Title: Small Language Models for Curriculum-based Guidance
- Title(参考訳): カリキュラムに基づく指導のための小言語モデル
- Authors: Konstantinos Katharakis, Sippo Rossi, Raghava Rao Mukkamala,
- Abstract要約: 教育における生成的AIと大規模言語モデル(LLM)の採用は、いまだに現れている。
我々は、GPT-4oに対して、LLaMA 3.1、IBM Granite 3.3、Gemma 3 (7-17Bパラメータ)を含む8つのSLMをベンチマークした。
以上の結果から, SLM は LLM と一致し, 正確な対応が可能であることが示唆された。
- 参考スコア(独自算出の注目度): 0.4970364068620607
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The adoption of generative AI and large language models (LLMs) in education is still emerging. In this study, we explore the development and evaluation of AI teaching assistants that provide curriculum-based guidance using a retrieval-augmented generation (RAG) pipeline applied to selected open-source small language models (SLMs). We benchmarked eight SLMs, including LLaMA 3.1, IBM Granite 3.3, and Gemma 3 (7-17B parameters), against GPT-4o. Our findings show that with proper prompting and targeted retrieval, SLMs can match LLMs in delivering accurate, pedagogically aligned responses. Importantly, SLMs offer significant sustainability benefits due to their lower computational and energy requirements, enabling real-time use on consumer-grade hardware without depending on cloud infrastructure. This makes them not only cost-effective and privacy-preserving but also environmentally responsible, positioning them as viable AI teaching assistants for educational institutions aiming to scale personalized learning in a sustainable and energy-efficient manner.
- Abstract(参考訳): 教育における生成的AIと大規模言語モデル(LLM)の採用は、いまだに現れている。
本研究では,オープンソース小言語モデル(SLM)に応用した検索強化世代(RAG)パイプラインを用いたカリキュラムベースの指導を行うAI教材の開発と評価について検討する。
我々は、GPT-4oに対して、LLaMA 3.1、IBM Granite 3.3、Gemma 3 (7-17Bパラメータ)を含む8つのSLMをベンチマークした。
本研究は, 適切なプロンプトとターゲット検索により, SLM が LLM と一致し, 正確な対応が可能であることを示す。
重要な点として、SLMは計算とエネルギーの要求が低く、クラウドインフラストラクチャに依存することなく、コンシューマグレードのハードウェアでリアルタイムに使用することができるため、サステナビリティの面で大きなメリットがある。
これにより、コスト効率とプライバシ保護だけでなく、環境にも責任を持ち、持続的でエネルギー効率のよい方法でパーソナライズされた学習をスケールすることを目指す教育機関のAI教育アシスタントとして位置づけられる。
関連論文リスト
- Small Models, Big Support: A Local LLM Framework for Teacher-Centric Content Creation and Assessment using RAG and CAG [41.94295877935867]
大規模言語モデル(LLM)は、学生向けの教育援助としてますます活用されている。
既存の教育ソリューションの多くはクラウドベースのインフラストラクチャやプロプライエタリなツールに依存している。
本稿では,3B-7Bの小さなパラメータを活用し,教材生成と評価をカスタマイズしたLLMをローカルに展開する,エンドツーエンドのオープンソースフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-06T09:47:03Z) - Position: LLMs Can be Good Tutors in English Education [120.25980336297444]
大規模言語モデル(LLM)は、英語教育において効果的な家庭教師として機能する可能性がある。
LLMは、データエンハンサー、学習材料の作成の改善、学生シミュレーションの3つの重要な役割を果たすことができる。
論文 参考訳(メタデータ) (2025-02-08T06:48:49Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - CourseAssist: Pedagogically Appropriate AI Tutor for Computer Science Education [1.052788652996288]
このポスターでは、コンピュータサイエンス教育用に作られた新しいLLMベースのチューターシステムであるCourseAssistを紹介している。
一般的なLLMシステムとは異なり、CourseAssistは検索強化生成、ユーザ意図分類、質問分解を使用して、AI応答を特定のコース材料や学習目標と整合させる。
論文 参考訳(メタデータ) (2024-05-01T20:43:06Z) - AutoTutor meets Large Language Models: A Language Model Tutor with Rich Pedagogy and Guardrails [43.19453208130667]
大規模言語モデル(LLM)は、自動質問生成からエッセイ評価まで、いくつかのユースケースを教育で発見した。
本稿では,Large Language Models (LLMs) を用いて知的チューリングシステムを構築する可能性について検討する。
MWPTutor は LLM を用いて事前定義された有限状態トランスデューサの状態空間を補う。
論文 参考訳(メタデータ) (2024-02-14T14:53:56Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Self-Checker: Plug-and-Play Modules for Fact-Checking with Large Language Models [75.75038268227554]
Self-Checkerはファクトチェックを容易にするプラグインとプレイモジュールからなるフレームワークである。
このフレームワークは、低リソース環境でファクトチェックシステムを構築するための、高速で効率的な方法を提供する。
論文 参考訳(メタデータ) (2023-05-24T01:46:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。