論文の概要: Small Models, Big Support: A Local LLM Framework for Teacher-Centric Content Creation and Assessment using RAG and CAG
- arxiv url: http://arxiv.org/abs/2506.05925v1
- Date: Fri, 06 Jun 2025 09:47:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.408435
- Title: Small Models, Big Support: A Local LLM Framework for Teacher-Centric Content Creation and Assessment using RAG and CAG
- Title(参考訳): 小さなモデルと大きなサポート:RAGとCAGを用いた教師中心コンテンツ作成・評価のためのローカルLLMフレームワーク
- Authors: Zarreen Reza, Alexander Mazur, Michael T. Dugdale, Robin Ray-Chaudhuri,
- Abstract要約: 大規模言語モデル(LLM)は、学生向けの教育援助としてますます活用されている。
既存の教育ソリューションの多くはクラウドベースのインフラストラクチャやプロプライエタリなツールに依存している。
本稿では,3B-7Bの小さなパラメータを活用し,教材生成と評価をカスタマイズしたLLMをローカルに展開する,エンドツーエンドのオープンソースフレームワークを提案する。
- 参考スコア(独自算出の注目度): 41.94295877935867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Large Language Models (LLMs) are increasingly utilized as student-facing educational aids, their potential to directly support educators, particularly through locally deployable and customizable open-source solutions, remains significantly underexplored. Many existing educational solutions rely on cloud-based infrastructure or proprietary tools, which are costly and may raise privacy concerns. Regulated industries with limited budgets require affordable, self-hosted solutions. We introduce an end-to-end, open-source framework leveraging small (3B-7B parameters), locally deployed LLMs for customized teaching material generation and assessment. Our system uniquely incorporates an interactive loop crucial for effective small-model refinement, and an auxiliary LLM verifier to mitigate jailbreaking risks, enhancing output reliability and safety. Utilizing Retrieval and Context Augmented Generation (RAG/CAG), it produces factually accurate, customized pedagogically-styled content. Deployed on-premises for data privacy and validated through an evaluation pipeline and a college physics pilot, our findings show that carefully engineered small LLM systems can offer robust, affordable, practical, and safe educator support, achieving utility comparable to larger models for targeted tasks.
- Abstract(参考訳): 大規模言語モデル(LLM)は、学生向けの教育援助としてますます活用されているが、教育者を直接支援する可能性、特にローカルにデプロイ可能でカスタマイズ可能なオープンソースソリューションを通じて、その可能性はかなり過小評価されている。
既存の教育ソリューションの多くはクラウドベースのインフラストラクチャやプロプライエタリなツールに依存している。
限られた予算で規制された産業は、安価で自己ホスト型のソリューションを必要とする。
本稿では,教材生成と評価をカスタマイズしたLLMをローカルに展開する,小さな3B-7Bパラメータを活用したエンドツーエンドのオープンソースフレームワークを提案する。
本システムには, 有効な小型モデルの改良に不可欠な対話型ループと, 脱獄リスクを軽減し, 出力信頼性と安全性を向上する補助的なLCM検証器が組み込まれている。
Retrieval と Context Augmented Generation (RAG/CAG) を利用して、実際に正確で、カスタマイズされた教育的スタイルのコンテンツを生成する。
データプライバシをオンプレミスでデプロイし、評価パイプラインと大学の物理パイロットを通じて検証した結果、慎重に設計された小さなLLMシステムは、堅牢で手頃な価格で実用的で安全な教育者サポートを提供し、ターゲットとするタスクのためのより大きなモデルに匹敵する実用性を実現することができることがわかった。
関連論文リスト
- Federated In-Context LLM Agent Learning [3.4757641432843487]
大規模言語モデル(LLM)は、論理的推論、ツールの使用、エージェントとしての外部システムとの相互作用を可能にすることによって、インテリジェントなサービスに革命をもたらした。
本稿では,プライバシ保護型フェデレーション・イン・コンテクスト LLM Agent Learning (FICAL) アルゴリズムを提案する。
その結果、FICALは、他のSOTAベースラインと比較して競争性能が優れており、通信コストの大幅な削減は、$mathbf3.33times105$倍であることがわかった。
論文 参考訳(メタデータ) (2024-12-11T03:00:24Z) - When Machine Unlearning Meets Retrieval-Augmented Generation (RAG): Keep Secret or Forget Knowledge? [15.318301783084681]
大規模言語モデル(LLM)は、トレーニング中に機密情報や有害なコンテンツを不注意に学習し、保持することができる。
本稿では,RAG(Retrieval-Augmented Generation)技術に基づく軽量なアンラーニングフレームワークを提案する。
われわれはChatGPT, Gemini, Llama-2-7b-chat-hf, PaLM 2 など,オープンソースおよびクローズドソースモデルの広範な実験を通じてフレームワークを評価する。
論文 参考訳(メタデータ) (2024-10-20T03:51:01Z) - AutoTutor meets Large Language Models: A Language Model Tutor with Rich Pedagogy and Guardrails [43.19453208130667]
大規模言語モデル(LLM)は、自動質問生成からエッセイ評価まで、いくつかのユースケースを教育で発見した。
本稿では,Large Language Models (LLMs) を用いて知的チューリングシステムを構築する可能性について検討する。
MWPTutor は LLM を用いて事前定義された有限状態トランスデューサの状態空間を補う。
論文 参考訳(メタデータ) (2024-02-14T14:53:56Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Large Language Model as a Policy Teacher for Training Reinforcement Learning Agents [16.24662355253529]
LLM(Large Language Models)は、高レベルの命令を提供することによって、シーケンシャルな意思決定タスクに対処することができる。
LLMは、特にリアルタイムな動的環境において、特定のターゲット問題に対処する専門性を欠いている。
LLMベースの教師エージェントからの指示を用いて、より小規模で専門的なRLエージェントを訓練することで、これらの課題に対処する新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-22T13:15:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。