論文の概要: Measuring Five Accountable Talk Moves to Improve Instruction at Scale
- arxiv url: http://arxiv.org/abs/2311.10749v1
- Date: Thu, 2 Nov 2023 03:04:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 00:45:45.462206
- Title: Measuring Five Accountable Talk Moves to Improve Instruction at Scale
- Title(参考訳): スケールインストラクションを改善するための5つの説明責任の移動の測定
- Authors: Ashlee Kupor, Candice Morgan, and Dorottya Demszky
- Abstract要約: 説明可能な会話理論にインスパイアされた5つの指導的話の動きを識別するモデルを微調整する。
学習者のエンゲージメントと満足度を指標として,各講演の動きのインストラクターの使い方を関連づける。
これらの結果は、説明可能な話し方の有効性に関する過去の研究を裏付けるものである。
- 参考スコア(独自算出の注目度): 1.4549461207028445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Providing consistent, individualized feedback to teachers on their
instruction can improve student learning outcomes. Such feedback can especially
benefit novice instructors who teach on online platforms and have limited
access to instructional training. To build scalable measures of instruction, we
fine-tune RoBERTa and GPT models to identify five instructional talk moves
inspired by accountable talk theory: adding on, connecting, eliciting, probing
and revoicing students' ideas. We fine-tune these models on a newly annotated
dataset of 2500 instructor utterances derived from transcripts of small group
instruction in an online computer science course, Code in Place. Although we
find that GPT-3 consistently outperforms RoBERTa in terms of precision, its
recall varies significantly. We correlate the instructors' use of each talk
move with indicators of student engagement and satisfaction, including
students' section attendance, section ratings, and assignment completion rates.
We find that using talk moves generally correlates positively with student
outcomes, and connecting student ideas has the largest positive impact. These
results corroborate previous research on the effectiveness of accountable talk
moves and provide exciting avenues for using these models to provide
instructors with useful, scalable feedback.
- Abstract(参考訳): 教師に一貫した個別のフィードバックを提供することで、生徒の学習結果を改善することができる。
このようなフィードバックは、オンラインプラットフォームで教鞭を執り、教職訓練に制限のある初心者のインストラクターに特に役立つ。
拡張性のある指導尺度を構築するために、RoBERTaとGPTモデルを微調整し、説明可能な会話理論に触発された5つの指導的講演の動きを識別する。
オンラインコンピュータサイエンスコース『Code in Place』において,小グループ指導の書き起こしから得られた2500のインストラクター発話の注釈付きデータセット上で,これらのモデルを微調整する。
GPT-3はRoBERTaよりも精度が高いが,リコールは著しく異なる。
我々は,各講演の指導者による使用状況と,学生の部会出席率,部会評価,課題完了率など,学生のエンゲージメントと満足感の指標とを関連づける。
講演の動きは、一般的に学生の成果と正の相関関係があり、学生のアイデアを結びつけることは、最もポジティブな影響を与える。
これらの結果は、説明可能な講演の動きの有効性に関する過去の研究と、これらのモデルを使用してインストラクターに有用でスケーラブルなフィードバックを提供するためのエキサイティングな道を提供するものである。
関連論文リスト
- Leveraging Large Language Models for Actionable Course Evaluation Student Feedback to Lecturers [6.161370712594005]
コンピュータサイエンス科の75科以上で742名の学生が回答した。
各コースについて,授業評価項目と動作可能な項目の要約を合成する。
本研究は, 授業環境における教師に対して, 実感的, 行動的, 適切なフィードバックを生み出すために, 生成的AIを使用する可能性を強調した。
論文 参考訳(メタデータ) (2024-07-01T13:29:55Z) - Representational Alignment Supports Effective Machine Teaching [81.19197059407121]
我々は,機械教育の知見と実践的なコミュニケーションを,表現的アライメントに関する文献と統合する。
教師の精度から表現的アライメントを遠ざける教師付き学習環境を設計する。
論文 参考訳(メタデータ) (2024-06-06T17:48:24Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - Large Language Model-Driven Classroom Flipping: Empowering
Student-Centric Peer Questioning with Flipped Interaction [3.1473798197405953]
本稿では,大規模言語モデルにおけるフリップ相互作用に基づく教室のフリップの教育的アプローチについて検討する。
欠落した相互作用は、プロンプトに対する回答ではなく、言語モデルを使用して質問を生成することである。
本稿では,クイズ・クイズ・ルーチンとクイズ・プイズ・クイズ・ルーチンとを用いて,クイズ・クイズ・クイズ・クイズとアクイズ・クイズ・クイズ・インシデント・エンジニアリングを統合するワークフローを提案する。
論文 参考訳(メタデータ) (2023-11-14T15:48:19Z) - Instruction-following Evaluation through Verbalizer Manipulation [64.73188776428799]
本稿では,動詞操作と呼ばれる新しい指示追従評価プロトコルを提案する。
モデルにタスクラベルを、異なる範囲のモデル先行と整合した単語で言語化するように指示する。
異なる家族や規模にわたるモデルの指示追従能力は、より自然な話し手の性能によって著しく異なることが観察された。
論文 参考訳(メタデータ) (2023-07-20T03:54:24Z) - Can Language Models Teach Weaker Agents? Teacher Explanations Improve
Students via Personalization [84.86241161706911]
教師のLLMは、実際に生徒の推論に介入し、パフォーマンスを向上させることができることを示す。
また,マルチターンインタラクションでは,教師による説明が一般化され,説明データから学習されることを示す。
教師のミスアライメントが学生の成績をランダムな確率に低下させることを、意図的に誤解させることで検証する。
論文 参考訳(メタデータ) (2023-06-15T17:27:20Z) - Is ChatGPT a Good Teacher Coach? Measuring Zero-Shot Performance For
Scoring and Providing Actionable Insights on Classroom Instruction [5.948322127194399]
本稿では,AIが専門家のフィードバックを補うための費用効率のよい補完になるかどうかを,教師の指導を自動化して検討する。
生成型AIのための3つの教師指導課題を提案する: (A) 教室の観察装置に基づく書き起こしセグメントのスコア、(B) 優れた指導戦略のためのハイライトと機会の欠落を特定し、(C) より学生の推論を引き出すための実行可能な提案を行う。
本研究は,小学校数学書写におけるChatGPTのゼロショット性能を評価するために,専門家の数学教師を募集する。
論文 参考訳(メタデータ) (2023-06-05T17:59:21Z) - MathDial: A Dialogue Tutoring Dataset with Rich Pedagogical Properties
Grounded in Math Reasoning Problems [74.73881579517055]
そこで本稿では,一般学生の誤りを表現した大規模言語モデルを用いて,人間教師の対話を生成する枠組みを提案する。
このフレームワークを用いて3kの1対1の教師-学生対話のデータセットであるMathDialを収集する方法について述べる。
論文 参考訳(メタデータ) (2023-05-23T21:44:56Z) - The NCTE Transcripts: A Dataset of Elementary Math Classroom Transcripts [4.931378519409227]
研究者が利用可能な数学教室の教科書の最大のデータセットについて紹介する。
データセットは、長さ1,660分の4年生と5年生の初等数学の観測から成り立っている。
匿名化された文字起こしは、4つの学区の317人の教師のデータを表現している。
論文 参考訳(メタデータ) (2022-11-21T19:00:01Z) - The TalkMoves Dataset: K-12 Mathematics Lesson Transcripts Annotated for
Teacher and Student Discursive Moves [8.090330715662962]
本稿では、567人の人間によるK-12数学の授業書き起こしからなるTalkMovesデータセットについて述べる。
このデータセットは、教育者、政策立案者、研究者によってK-12の数学教室における教師と生徒の談話の性質を理解するために利用することができる。
論文 参考訳(メタデータ) (2022-04-06T18:12:30Z) - Iterative Teacher-Aware Learning [136.05341445369265]
人間の教育において、教師と学生はコミュニケーション効率を最大化するために適応的に交流することができる。
本稿では,教師の協調意図を可能性関数に組み込むことができる,勾配最適化に基づく教師認識学習者を提案する。
論文 参考訳(メタデータ) (2021-10-01T00:27:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。