論文の概要: Fine-Tuning Large Language Models for Educational Support: Leveraging Gagne's Nine Events of Instruction for Lesson Planning
- arxiv url: http://arxiv.org/abs/2503.09276v1
- Date: Wed, 12 Mar 2025 11:22:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:39:41.958126
- Title: Fine-Tuning Large Language Models for Educational Support: Leveraging Gagne's Nine Events of Instruction for Lesson Planning
- Title(参考訳): 教育支援のための微調整大規模言語モデル:ガグネの授業9事象を活用した授業計画
- Authors: Linzhao Jia, Changyong Qi, Yuang Wei, Han Sun, Xiaozhe Yang,
- Abstract要約: 本研究では,Gagne's Nine Events of Instructionに組み込むことで,大規模言語モデル(LLM)が教師の準備をいかに向上させるかを検討する。
この研究は、数学のカリキュラム標準とガグネの指導イベントに基づく包括的なデータセットの作成から始まる。
第2の方法は、特別なデータセットを使用してオープンソースモデルを微調整し、教育コンテンツ生成と分析能力を向上する。
- 参考スコア(独自算出の注目度): 5.022835754140817
- License:
- Abstract: Effective lesson planning is crucial in education process, serving as the cornerstone for high-quality teaching and the cultivation of a conducive learning atmosphere. This study investigates how large language models (LLMs) can enhance teacher preparation by incorporating them with Gagne's Nine Events of Instruction, especially in the field of mathematics education in compulsory education. It investigates two distinct methodologies: the development of Chain of Thought (CoT) prompts to direct LLMs in generating content that aligns with instructional events, and the application of fine-tuning approaches like Low-Rank Adaptation (LoRA) to enhance model performance. This research starts with creating a comprehensive dataset based on math curriculum standards and Gagne's instructional events. The first method involves crafting CoT-optimized prompts to generate detailed, logically coherent responses from LLMs, improving their ability to create educationally relevant content. The second method uses specialized datasets to fine-tune open-source models, enhancing their educational content generation and analysis capabilities. This study contributes to the evolving dialogue on the integration of AI in education, illustrating innovative strategies for leveraging LLMs to bolster teaching and learning processes.
- Abstract(参考訳): 効果的な授業計画は教育過程において不可欠であり、高品質の教育と教育的学習雰囲気の育成の基礎となる。
本研究では,Gagne's Nine Events of Instruction,特に義務教育における数学教育の分野において,大規模言語モデル(LLM)が教師の準備をいかに促進できるかを検討する。
The development of Thought (CoT) prompts to direct LLMs in generate content that corresponding with instructional events, and the application of fine-tuning approach like Low-Rank Adaptation (LoRA) to enhance model performance。
この研究は、数学のカリキュラム標準とガグネの指導イベントに基づく包括的なデータセットの作成から始まる。
最初の方法は、COTに最適化されたプロンプトを作成し、LLMから詳細で論理的に一貫性のある応答を生成し、教育的に関係のあるコンテンツを作成する能力を改善することである。
第2の方法は、特別なデータセットを使用してオープンソースモデルを微調整し、教育コンテンツ生成と分析能力を向上する。
本研究は,LLMを活用した教育・学習プロセスの活性化に向けた革新的戦略として,AIの教育における統合に関する対話の進化に寄与する。
関連論文リスト
- From Selection to Generation: A Survey of LLM-based Active Learning [153.8110509961261]
大きな言語モデル(LLM)は、全く新しいデータインスタンスを生成し、よりコスト効率の良いアノテーションを提供するために使われています。
本調査は,LSMに基づくAL手法の直感的な理解を目指して,研究者や実践者の最新のリソースとして機能することを目的としている。
論文 参考訳(メタデータ) (2025-02-17T12:58:17Z) - Position: LLMs Can be Good Tutors in Foreign Language Education [87.88557755407815]
我々は、外国語教育(FLE)において、大きな言語モデル(LLM)が効果的な家庭教師として機能する可能性を主張する。
具体的には、(1)データエンハンサーとして、(2)学習教材の作成や学生シミュレーションとして、(2)タスク予測器として、学習者の評価や学習経路の最適化に、(3)エージェントとして、そして、パーソナライズされた包括的教育を可能にする3つの重要な役割を果たせる。
論文 参考訳(メタデータ) (2025-02-08T06:48:49Z) - Leveraging Large Language Models to Generate Course-specific Semantically Annotated Learning Objects [2.1845291030915974]
生成自然言語モデルの最近の進歩は、教育コンテンツの生成に新たな可能性をもたらしている。
本稿では,自動学習者モデル更新に十分な注釈を付けたコンピュータサイエンス質問を生成するための,大規模言語モデルの可能性について検討する。
論文 参考訳(メタデータ) (2024-12-05T14:24:07Z) - Large Language Models in Computer Science Education: A Systematic Literature Review [7.240148550817106]
大規模言語モデル(LLM)は、幅広い自然言語処理タスク(NLP)において、ますます良くなっている。
最近、これらのモデルは、自然言語(NL)とプログラミング言語(PL)のギャップを埋めて、その能力をコーディングタスクに拡張した。
論文 参考訳(メタデータ) (2024-10-21T17:49:50Z) - Advancing Graph Representation Learning with Large Language Models: A
Comprehensive Survey of Techniques [37.60727548905253]
グラフ表現学習(GRL)とLLM(Large Language Models)の統合は、複雑なデータ構造を分析する上で重要な進化である。
このコラボレーションは、LLMの洗練された言語機能を活用して、グラフモデルの文脈的理解と適応性を改善する。
LLMをグラフ領域に統合する研究団体が増えているにもかかわらず、コアコンポーネントとオペレーションを深く分析する包括的なレビューは特に欠落している。
論文 参考訳(メタデータ) (2024-02-04T05:51:14Z) - Understanding LLMs: A Comprehensive Overview from Training to Inference [52.70748499554532]
大規模言語モデルの低コストなトレーニングと展開は、将来の開発トレンドを表している。
トレーニングに関する議論には、データ前処理、トレーニングアーキテクチャ、事前トレーニングタスク、並列トレーニング、モデル微調整に関連する関連コンテンツなど、さまざまな側面が含まれている。
推論の面では、モデル圧縮、並列計算、メモリスケジューリング、構造最適化などのトピックを取り上げている。
論文 参考訳(メタデータ) (2024-01-04T02:43:57Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Large Language Models can Contrastively Refine their Generation for Better Sentence Representation Learning [57.74233319453229]
大規模言語モデル(LLM)は画期的な技術として登場し、それらの非並列テキスト生成能力は、基本的な文表現学習タスクへの関心を喚起している。
コーパスを生成するためにLLMの処理を分解するマルチレベルコントラスト文表現学習フレームワークであるMultiCSRを提案する。
実験の結果,MultiCSRはより高度なLCMをChatGPTの性能を超えつつ,ChatGPTに適用することで最先端の成果を得られることがわかった。
論文 参考訳(メタデータ) (2023-10-17T03:21:43Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Prototyping the use of Large Language Models (LLMs) for adult learning
content creation at scale [0.6628807224384127]
本稿では,Large Language Models (LLM) の非同期コース生成における利用について検討する。
LLMを利用したコースプロトタイプを開発し,ロバストなHuman-in-the-loopプロセスを実装した。
最初の発見は、このアプローチを採用することで、正確さや明快さを損なうことなく、コンテンツ作成を高速化できることを示している。
論文 参考訳(メタデータ) (2023-06-02T10:58:05Z) - Scaling Evidence-based Instructional Design Expertise through Large
Language Models [0.0]
本稿では,大規模言語モデル(LLM),特にGPT-4を教育設計の分野で活用することを検討する。
本研究は,エビデンスに基づく教育設計の専門知識のスケールアップに着目し,理論教育学と実践実践のギャップを埋めることを目的としている。
我々は,AIによるコンテンツ生成のメリットと限界について論じ,教育資料の品質確保に人的監督が必要であることを強調した。
論文 参考訳(メタデータ) (2023-05-31T17:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。