論文の概要: "Mistakes Help Us Grow": Facilitating and Evaluating Growth Mindset
Supportive Language in Classrooms
- arxiv url: http://arxiv.org/abs/2310.10637v1
- Date: Mon, 16 Oct 2023 17:56:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 12:17:17.055683
- Title: "Mistakes Help Us Grow": Facilitating and Evaluating Growth Mindset
Supportive Language in Classrooms
- Title(参考訳): 失敗は成長を助ける--教室における成長マインドセット支援言語の実現と評価
- Authors: Kunal Handa, Margaret Clapper, Jessica Boyle, Rose E Wang, Diyi Yang,
David S Yeager, Dorottya Demszky
- Abstract要約: 大規模言語モデル(LLM)は、教師の成長マインドセット支援言語(GMSL)の使用を支援する自動化されたパーソナライズされたコーチングを提供する。
我々は174人の教師と1,006人の学生による大規模評価を行い、教師と学生がGMSLで訓練された教師とモデルリフレーミングを、成長マインドセットの育成と課題探究行動の促進に有効であると認識することを発見した。
- 参考スコア(独自算出の注目度): 40.71331474490306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Teachers' growth mindset supportive language (GMSL)--rhetoric emphasizing
that one's skills can be improved over time--has been shown to significantly
reduce disparities in academic achievement and enhance students' learning
outcomes. Although teachers espouse growth mindset principles, most find it
difficult to adopt GMSL in their practice due the lack of effective coaching in
this area. We explore whether large language models (LLMs) can provide
automated, personalized coaching to support teachers' use of GMSL. We establish
an effective coaching tool to reframe unsupportive utterances to GMSL by
developing (i) a parallel dataset containing GMSL-trained teacher reframings of
unsupportive statements with an accompanying annotation guide, (ii) a GMSL
prompt framework to revise teachers' unsupportive language, and (iii) an
evaluation framework grounded in psychological theory for evaluating GMSL with
the help of students and teachers. We conduct a large-scale evaluation
involving 174 teachers and 1,006 students, finding that both teachers and
students perceive GMSL-trained teacher and model reframings as more effective
in fostering a growth mindset and promoting challenge-seeking behavior, among
other benefits. We also find that model-generated reframings outperform those
from the GMSL-trained teachers. These results show promise for harnessing LLMs
to provide automated GMSL feedback for teachers and, more broadly, LLMs'
potentiality for supporting students' learning in the classroom. Our findings
also demonstrate the benefit of large-scale human evaluations when applying
LLMs in educational domains.
- Abstract(参考訳): 教師の成長マインドセット支援言語(GMSL)は、時間とともにスキルが向上できることを強調し、学業成績の格差を著しく減らし、学生の学習成果を高めることが示されている。
教師は成長マインドセットの原則を重んじるが、この領域では効果的なコーチングが欠如しているため、実践においてGMSLを採用することは困難である。
大規模言語モデル(LLM)が教師のGMSL活用を支援するために,自動的,パーソナライズされたコーチングを提供するかどうかを検討する。
GMSLに非サポート的発話を再構成する効果的なコーチングツールの構築
(i)gmslにより訓練された教師による非支援文のリフレーミングを含む並列データセット
(二)教師の非サポート言語を改訂するためのGMSLプロンプト・フレームワーク
(iii)学生や教師の助けを借りてgmslを評価するための心理学理論に基づく評価枠組み。
我々は174人の教師と1,006人の学生による大規模評価を行い、教師と学生がGMSLで訓練された教師とモデルリフレーミングを、成長マインドセットの育成や課題探究行動の促進に有効であると見なしている。
また,モデル生成リフレーミングは,GMSL学習教師よりも優れていた。
これらの結果は,LLMが教師にGMSLのフィードバックを自動で提供することを約束し,より広範に,教室での学習を支援するためのLLMの可能性を示している。
また,LLMを教育分野に適用する場合の大規模評価のメリットも示した。
関連論文リスト
- Position: LLMs Can be Good Tutors in Foreign Language Education [87.88557755407815]
我々は、外国語教育(FLE)において、大きな言語モデル(LLM)が効果的な家庭教師として機能する可能性を主張する。
具体的には、(1)データエンハンサーとして、(2)学習教材の作成や学生シミュレーションとして、(2)タスク予測器として、学習者の評価や学習経路の最適化に、(3)エージェントとして、そして、パーソナライズされた包括的教育を可能にする3つの重要な役割を果たせる。
論文 参考訳(メタデータ) (2025-02-08T06:48:49Z) - Automated Assignment Grading with Large Language Models: Insights From a Bioinformatics Course [0.0]
自然言語処理と大規模言語モデル(LLM)は、パーソナライズされたフィードバックの効率的な配信を可能にすることで、有望なソリューションを提供する。
自然言語処理と大規模言語モデル(LLM)の最近の進歩は、パーソナライズされたフィードバックの効率的な配信を可能にすることによって、有望なソリューションを提供する。
提案手法により,LLMは人間の評価値に匹敵する評価精度とフィードバック品質を達成できることが示唆された。
論文 参考訳(メタデータ) (2025-01-24T13:59:14Z) - Embracing AI in Education: Understanding the Surge in Large Language Model Use by Secondary Students [53.20318273452059]
OpenAIのChatGPTのような大規模言語モデル(LLM)は、新しい教育の道を開いた。
学校制限にもかかわらず,中高生300人以上を対象に調査を行ったところ,学生の70%がLDMを利用していることがわかった。
我々は、対象特化モデル、パーソナライズドラーニング、AI教室など、このような問題に対処するいくつかのアイデアを提案する。
論文 参考訳(メタデータ) (2024-11-27T19:19:34Z) - Towards the Pedagogical Steering of Large Language Models for Tutoring: A Case Study with Modeling Productive Failure [36.83786872708736]
1対1の授業は、最も効果的な教育方法の1つである。
先進的で効果的な学習設計であるProductive Failure (PF) に倣って, 高校数学のプロトタイプチューターを作成する。
我々は,StratLがLLMの運営に成功し,生産的失敗の学習戦略に従うことを定量的に示す。
論文 参考訳(メタデータ) (2024-10-03T16:15:41Z) - Dr.Academy: A Benchmark for Evaluating Questioning Capability in Education for Large Language Models [30.759154473275043]
本研究では,大規模言語モデル(LLM)の教師として教育における質問能力を評価するためのベンチマークを紹介する。
関連性, カバレッジ, 代表性, 一貫性の4つの指標を適用し, LLMのアウトプットの教育的品質を評価する。
以上の結果から, GPT-4は一般・人文・理科教育において有意な可能性を秘めていることが示唆された。
論文 参考訳(メタデータ) (2024-08-20T15:36:30Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - AutoTutor meets Large Language Models: A Language Model Tutor with Rich Pedagogy and Guardrails [43.19453208130667]
大規模言語モデル(LLM)は、自動質問生成からエッセイ評価まで、いくつかのユースケースを教育で発見した。
本稿では,Large Language Models (LLMs) を用いて知的チューリングシステムを構築する可能性について検討する。
MWPTutor は LLM を用いて事前定義された有限状態トランスデューサの状態空間を補う。
論文 参考訳(メタデータ) (2024-02-14T14:53:56Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - Impact of Guidance and Interaction Strategies for LLM Use on Learner Performance and Perception [19.335003380399527]
大規模言語モデル(LLM)は、その教育的有用性を探求する研究の増加とともに、有望な道を提供する。
本研究は,LLM支援学習環境の形成において,教師が果たす役割を強調した。
論文 参考訳(メタデータ) (2023-10-13T01:21:52Z) - Iterative Teacher-Aware Learning [136.05341445369265]
人間の教育において、教師と学生はコミュニケーション効率を最大化するために適応的に交流することができる。
本稿では,教師の協調意図を可能性関数に組み込むことができる,勾配最適化に基づく教師認識学習者を提案する。
論文 参考訳(メタデータ) (2021-10-01T00:27:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。