論文の概要: Assertion Enhanced Few-Shot Learning: Instructive Technique for Large
Language Models to Generate Educational Explanations
- arxiv url: http://arxiv.org/abs/2312.03122v2
- Date: Thu, 18 Jan 2024 16:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 19:33:40.491546
- Title: Assertion Enhanced Few-Shot Learning: Instructive Technique for Large
Language Models to Generate Educational Explanations
- Title(参考訳): Assertion Enhanced Few-Shot Learning:教育説明生成のための大規模言語モデルの指導手法
- Authors: Tasmia Shahriar, Noboru Matsuda and Kelly Ramos
- Abstract要約: 人間の教育者は、生徒から教育的な説明を求め、予測する本質的な能力を持っている。
我々は,大規模言語モデルの少数ショット学習機能を用いて,インテリジェント・チューリング・システムを構築することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Human educators possess an intrinsic ability to anticipate and seek
educational explanations from students, which drives them to pose
thought-provoking questions when students cannot articulate these explanations
independently. We aim to imbue Intelligent Tutoring Systems with this ability
using few-shot learning capability of Large Language Models. Our work proposes
a novel prompting technique, Assertion Enhanced Few-Shot Learning, to
facilitate the generation of accurate, detailed oriented educational
explanations. Our central hypothesis is that, in educational domain, few-shot
demonstrations are necessary but not a sufficient condition for quality
explanation generation. We conducted a study involving 12 in-service teachers,
comparing our approach to Traditional Few-Shot Learning. The results show that
Assertion Enhanced Few-Shot Learning improves explanation accuracy by 15% and
yields higher-quality explanations, as evaluated by teachers. We also conduct a
qualitative ablation study to factor the impact of assertions to provide
educator-friendly prompting guidelines for generating explanations in their
domain of interest.
- Abstract(参考訳): 人間の教育者は、学生からの教育的説明を予想し、探究する本質的な能力を有しており、学生がこれらの説明を独立して説明できない場合に、思考を誘発する質問を引き起こす。
我々は,大規模言語モデルの少数ショット学習機能を用いて,インテリジェントチューニングシステムを構築することを目指している。
本研究は, より正確な, 詳細指向の教育説明を生成するための, 新規なプロンプト技術であるAssertion Enhanced Few-Shot Learningを提案する。
我々の中心的な仮説は、教育領域では、数発のデモは必要だが、品質説明生成に十分な条件ではないということである。
本研究は,12人の教員を対象に,従来のFew-Shot Learningとの比較を行った。
その結果,Assertion Enhanced Few-Shot Learning は説明精度を15%向上し,教師が評価した高品質な説明が得られることがわかった。
また,アサーションの影響を判断する定性的なアブレーション研究を行い,関心領域における説明を生み出すための教育者フレンドリな指導ガイドラインを提供する。
関連論文リスト
- Explainable Few-shot Knowledge Tracing [48.877979333221326]
本稿では,学生の記録から学生の知識をトラッキングし,自然言語による説明を提供する認知誘導フレームワークを提案する。
3つの広く使われているデータセットによる実験結果から、LLMは競合する深層知識追跡手法に匹敵する、あるいは優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-05-23T10:07:21Z) - Scaffolding Language Learning via Multi-modal Tutoring Systems with Pedagogical Instructions [34.760230622675365]
知的家庭教師システム(ITS)は、人間の家庭教師を模倣し、学習者にカスタマイズされた指導やフィードバックを提供することを目的としている。
生成人工知能の出現に伴い、大規模言語モデル(LLM)は、複雑な会話の相互作用をシステムに付与する。
教育指導がITSの足場形成をいかに促進するかを,子どもに言語学習のための画像記述を指導するケーススタディにより検討した。
論文 参考訳(メタデータ) (2024-04-04T13:22:28Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - Metacognition-Enhanced Few-Shot Prompting With Positive Reinforcement [17.120733859844076]
本稿では, メタ認知に富む新規な数発プロンプトを提案し, 思考過程を反映する大規模言語モデルを提案する。
メタ認知を増強した数発のショットに肯定的な強化を導入し,大規模言語モデルの数発学習を促進する。
論文 参考訳(メタデータ) (2023-12-14T03:49:52Z) - Exploring Iterative Enhancement for Improving Learnersourced
Multiple-Choice Question Explanations with Large Language Models [23.12128710240935]
我々は、自動説明生成のタスクを足場として、"ILearner-LLM" というフレームワークを提示し、評価する。
このフレームワークは、評価モデルから品質評価スコアをインストラクションプロンプトに反復的にフィードバックすることで、高品質な学生対応の説明を生成する。
本研究は,学生の学習支援体験を充実させるための有望な道のりを示すものである。
論文 参考訳(メタデータ) (2023-09-19T09:04:15Z) - Can Language Models Teach Weaker Agents? Teacher Explanations Improve
Students via Personalization [84.86241161706911]
教師のLLMは、実際に生徒の推論に介入し、パフォーマンスを向上させることができることを示す。
また,マルチターンインタラクションでは,教師による説明が一般化され,説明データから学習されることを示す。
教師のミスアライメントが学生の成績をランダムな確率に低下させることを、意図的に誤解させることで検証する。
論文 参考訳(メタデータ) (2023-06-15T17:27:20Z) - Reinforcement Learning Tutor Better Supported Lower Performers in a Math
Task [32.6507926764587]
強化学習は、開発コストを削減し、インテリジェントな学習ソフトウェアの有効性を向上させるための重要なツールとなり得る。
本研究では, 深層強化学習を用いて, 音量の概念を学習する学生に適応的な教育支援を行うことができることを示す。
論文 参考訳(メタデータ) (2023-04-11T02:11:24Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - Explanations from Large Language Models Make Small Reasoners Better [61.991772773700006]
提案手法は, 異なる設定において, 微調整ベースラインを連続的に, 著しく向上させることができることを示す。
副次的な利点として、人間の評価は、その予測を正当化するために高品質な説明を生成することができることを示す。
論文 参考訳(メタデータ) (2022-10-13T04:50:02Z) - Evaluating Explanations: How much do explanations from the teacher aid
students? [103.05037537415811]
本研究では,説明が生徒の学習モデルを改善する程度を測る学生-教師パラダイムを用いて,説明の価値を定式化する。
説明を評価するための従来の提案とは異なり、我々のアプローチは容易にゲーム化できず、原則付き、スケーラブルで、属性の自動評価を可能にします。
論文 参考訳(メタデータ) (2020-12-01T23:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。