論文の概要: "Mistakes Help Us Grow": Facilitating and Evaluating Growth Mindset
Supportive Language in Classrooms
- arxiv url: http://arxiv.org/abs/2310.10637v1
- Date: Mon, 16 Oct 2023 17:56:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 12:17:17.055683
- Title: "Mistakes Help Us Grow": Facilitating and Evaluating Growth Mindset
Supportive Language in Classrooms
- Title(参考訳): 失敗は成長を助ける--教室における成長マインドセット支援言語の実現と評価
- Authors: Kunal Handa, Margaret Clapper, Jessica Boyle, Rose E Wang, Diyi Yang,
David S Yeager, Dorottya Demszky
- Abstract要約: 大規模言語モデル(LLM)は、教師の成長マインドセット支援言語(GMSL)の使用を支援する自動化されたパーソナライズされたコーチングを提供する。
我々は174人の教師と1,006人の学生による大規模評価を行い、教師と学生がGMSLで訓練された教師とモデルリフレーミングを、成長マインドセットの育成と課題探究行動の促進に有効であると認識することを発見した。
- 参考スコア(独自算出の注目度): 40.71331474490306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Teachers' growth mindset supportive language (GMSL)--rhetoric emphasizing
that one's skills can be improved over time--has been shown to significantly
reduce disparities in academic achievement and enhance students' learning
outcomes. Although teachers espouse growth mindset principles, most find it
difficult to adopt GMSL in their practice due the lack of effective coaching in
this area. We explore whether large language models (LLMs) can provide
automated, personalized coaching to support teachers' use of GMSL. We establish
an effective coaching tool to reframe unsupportive utterances to GMSL by
developing (i) a parallel dataset containing GMSL-trained teacher reframings of
unsupportive statements with an accompanying annotation guide, (ii) a GMSL
prompt framework to revise teachers' unsupportive language, and (iii) an
evaluation framework grounded in psychological theory for evaluating GMSL with
the help of students and teachers. We conduct a large-scale evaluation
involving 174 teachers and 1,006 students, finding that both teachers and
students perceive GMSL-trained teacher and model reframings as more effective
in fostering a growth mindset and promoting challenge-seeking behavior, among
other benefits. We also find that model-generated reframings outperform those
from the GMSL-trained teachers. These results show promise for harnessing LLMs
to provide automated GMSL feedback for teachers and, more broadly, LLMs'
potentiality for supporting students' learning in the classroom. Our findings
also demonstrate the benefit of large-scale human evaluations when applying
LLMs in educational domains.
- Abstract(参考訳): 教師の成長マインドセット支援言語(GMSL)は、時間とともにスキルが向上できることを強調し、学業成績の格差を著しく減らし、学生の学習成果を高めることが示されている。
教師は成長マインドセットの原則を重んじるが、この領域では効果的なコーチングが欠如しているため、実践においてGMSLを採用することは困難である。
大規模言語モデル(LLM)が教師のGMSL活用を支援するために,自動的,パーソナライズされたコーチングを提供するかどうかを検討する。
GMSLに非サポート的発話を再構成する効果的なコーチングツールの構築
(i)gmslにより訓練された教師による非支援文のリフレーミングを含む並列データセット
(二)教師の非サポート言語を改訂するためのGMSLプロンプト・フレームワーク
(iii)学生や教師の助けを借りてgmslを評価するための心理学理論に基づく評価枠組み。
我々は174人の教師と1,006人の学生による大規模評価を行い、教師と学生がGMSLで訓練された教師とモデルリフレーミングを、成長マインドセットの育成や課題探究行動の促進に有効であると見なしている。
また,モデル生成リフレーミングは,GMSL学習教師よりも優れていた。
これらの結果は,LLMが教師にGMSLのフィードバックを自動で提供することを約束し,より広範に,教室での学習を支援するためのLLMの可能性を示している。
また,LLMを教育分野に適用する場合の大規模評価のメリットも示した。
関連論文リスト
- Towards the Pedagogical Steering of Large Language Models for Tutoring: A Case Study with Modeling Productive Failure [36.83786872708736]
1対1の授業は、最も効果的な教育方法の1つである。
先進的で効果的な学習設計であるProductive Failure (PF) に倣って, 高校数学のプロトタイプチューターを作成する。
我々は,StratLがLLMの運営に成功し,生産的失敗の学習戦略に従うことを定量的に示す。
論文 参考訳(メタデータ) (2024-10-03T16:15:41Z) - Dr.Academy: A Benchmark for Evaluating Questioning Capability in Education for Large Language Models [30.759154473275043]
本研究では,大規模言語モデル(LLM)の教師として教育における質問能力を評価するためのベンチマークを紹介する。
関連性, カバレッジ, 代表性, 一貫性の4つの指標を適用し, LLMのアウトプットの教育的品質を評価する。
以上の結果から, GPT-4は一般・人文・理科教育において有意な可能性を秘めていることが示唆された。
論文 参考訳(メタデータ) (2024-08-20T15:36:30Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - AutoTutor meets Large Language Models: A Language Model Tutor with Rich Pedagogy and Guardrails [43.19453208130667]
大規模言語モデル(LLM)は、自動質問生成からエッセイ評価まで、いくつかのユースケースを教育で発見した。
本稿では,Large Language Models (LLMs) を用いて知的チューリングシステムを構築する可能性について検討する。
MWPTutor は LLM を用いて事前定義された有限状態トランスデューサの状態空間を補う。
論文 参考訳(メタデータ) (2024-02-14T14:53:56Z) - YODA: Teacher-Student Progressive Learning for Language Models [82.0172215948963]
本稿では,教師が指導するプログレッシブ・ラーニング・フレームワークであるYodaを紹介する。
モデルファインチューニングの有効性を向上させるために,教師の教育過程をエミュレートする。
実験の結果, YODAのデータによるLLaMA2のトレーニングにより, SFTは大幅に向上した。
論文 参考訳(メタデータ) (2024-01-28T14:32:15Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - Impact of Guidance and Interaction Strategies for LLM Use on Learner Performance and Perception [19.335003380399527]
大規模言語モデル(LLM)は、その教育的有用性を探求する研究の増加とともに、有望な道を提供する。
本研究は,LLM支援学習環境の形成において,教師が果たす役割を強調した。
論文 参考訳(メタデータ) (2023-10-13T01:21:52Z) - Can Language Models Teach Weaker Agents? Teacher Explanations Improve
Students via Personalization [84.86241161706911]
教師のLLMは、実際に生徒の推論に介入し、パフォーマンスを向上させることができることを示す。
また,マルチターンインタラクションでは,教師による説明が一般化され,説明データから学習されることを示す。
教師のミスアライメントが学生の成績をランダムな確率に低下させることを、意図的に誤解させることで検証する。
論文 参考訳(メタデータ) (2023-06-15T17:27:20Z) - Is ChatGPT a Good Teacher Coach? Measuring Zero-Shot Performance For
Scoring and Providing Actionable Insights on Classroom Instruction [5.948322127194399]
本稿では,AIが専門家のフィードバックを補うための費用効率のよい補完になるかどうかを,教師の指導を自動化して検討する。
生成型AIのための3つの教師指導課題を提案する: (A) 教室の観察装置に基づく書き起こしセグメントのスコア、(B) 優れた指導戦略のためのハイライトと機会の欠落を特定し、(C) より学生の推論を引き出すための実行可能な提案を行う。
本研究は,小学校数学書写におけるChatGPTのゼロショット性能を評価するために,専門家の数学教師を募集する。
論文 参考訳(メタデータ) (2023-06-05T17:59:21Z) - Iterative Teacher-Aware Learning [136.05341445369265]
人間の教育において、教師と学生はコミュニケーション効率を最大化するために適応的に交流することができる。
本稿では,教師の協調意図を可能性関数に組み込むことができる,勾配最適化に基づく教師認識学習者を提案する。
論文 参考訳(メタデータ) (2021-10-01T00:27:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。