論文の概要: LLM Chatbots in High School Programming: Exploring Behaviors and Interventions
- arxiv url: http://arxiv.org/abs/2511.18985v1
- Date: Mon, 24 Nov 2025 10:58:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.168698
- Title: LLM Chatbots in High School Programming: Exploring Behaviors and Interventions
- Title(参考訳): 高校プログラミングにおけるLLMチャットボット - 行動と介入を探る
- Authors: Manuel Valle Torre, Marcus Specht, Catharine Oertel,
- Abstract要約: 本研究は,大規模言語モデル(LLM)の高次プログラミング教育における統合を改良するために,デザインベース研究サイクルを用いた。
最初の問題は、インタベンション・グループ(Intervention Group)で特定され、インタベーション・グループ(Intervention Group)では、インタベーション・グループ(Intervention Group)では、インタベーション・グループ(Intervention Group)では、エグゼクティブ、ソリューション・サーキング・クエリの比率が、試験のパフォーマンスと強く負の相関をとっていた。
- 参考スコア(独自算出の注目度): 0.6308539010172308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study uses a Design-Based Research (DBR) cycle to refine the integration of Large Language Models (LLMs) in high school programming education. The initial problem was identified in an Intervention Group where, in an unguided setting, a higher proportion of executive, solution-seeking queries correlated strongly and negatively with exam performance. A contemporaneous Comparison Group demonstrated that without guidance, these unproductive help-seeking patterns do not self-correct, with engagement fluctuating and eventually declining. This insight prompted a mid-course pedagogical intervention in the first group, designed to teach instrumental help-seeking. The subsequent evaluation confirmed the intervention's success, revealing a decrease in executive queries, as well as a shift toward more productive learning workflows. However, this behavioral change did not translate into a statistically significant improvement in exam grades, suggesting that altering tool-use strategies alone may be insufficient to overcome foundational knowledge gaps. The DBR process thus yields a more nuanced principle: the educational value of an LLM depends on a pedagogy that scaffolds help-seeking, but this is only one part of the complex process of learning.
- Abstract(参考訳): 本研究では、デザインベースリサーチ(DBR)サイクルを用いて、高校のプログラミング教育におけるLarge Language Models(LLM)の統合を洗練させる。
最初の問題は、インタベンション・グループ(Intervention Group)で特定され、インタベーション・グループ(Intervention Group)では、インタベーション・グループ(Intervention Group)では、インタベーション・グループ(Intervention Group)では、エグゼクティブ、ソリューション・サーキング・クエリの比率が、試験のパフォーマンスと強く負の相関をとっていた。
同時比較群は、ガイダンスがなければ、これらの非生産的なヘルプ検索パターンは自己正当ではなく、エンゲージメントが変動し、最終的に減少することを示した。
この洞察は、最初のグループにおける中学の教育的介入のきっかけとなり、楽器のヘルプ・サーキングを教えるために設計された。
その後の評価では、介入の成功を確認し、エグゼクティブクエリの減少と、より生産的な学習ワークフローへのシフトを明らかにした。
しかし、この行動変化は、試験成績の統計的に有意な改善には至らず、道具使用戦略の変更だけでは基礎的な知識ギャップを克服するには不十分である可能性が示唆された。
DBRプロセスは、LLMの教育的価値は、足場が助けを求める教育に依存しているが、これは学習の複雑なプロセスの一部に過ぎない。
関連論文リスト
- Learning Affordances at Inference-Time for Vision-Language-Action Models [50.93181349331096]
ロボット工学において、VLA(Vision-Language-Action Model)は複雑な制御タスクを解くための有望な道を提供する。
本稿では,VLAの低レベルポリシーを過去の経験を条件とした高レベルVLMに接続するLITEN(Learning from Inference-Time Execution)を紹介する。
提案手法は,低レベルVLAの計画の生成と実行を行う推論フェーズと,その結果を反映した評価フェーズとを反復する。
論文 参考訳(メタデータ) (2025-10-22T16:43:29Z) - CurES: From Gradient Analysis to Efficient Curriculum Learning for Reasoning LLMs [53.749193998004166]
カリキュラム学習は,大規模言語モデルの学習効率を高める上で重要な役割を担っている。
収束を加速し,計算オーバーヘッドを最小限に抑えるためにベイズ後続推定を用いた効率的な学習法であるCurESを提案する。
論文 参考訳(メタデータ) (2025-10-01T15:41:27Z) - EvoCurr: Self-evolving Curriculum with Behavior Code Generation for Complex Decision-making [9.228654390917123]
大規模言語モデル(LLM)は、プログラミング、計画、意思決定など、様々な領域にまたがる顕著な能力を示している。
本稿では,新たな自己進化型フレームワークであるEvoCurrを提案する。
本手法は, 直接解法に比べて, タスク成功率と解解効率を著しく向上することを示す。
論文 参考訳(メタデータ) (2025-08-13T07:59:29Z) - Retrieved In-Context Principles from Previous Mistakes [55.109234526031884]
In-context Learning (ICL) は、入力出力の正しい例を用いて、下流のタスクにLarge Language Models (LLM) を適用するのに役立っている。
近年の進歩は、ミスから派生した原則により、モデルパフォーマンスの改善を試みている。
本稿では,新しい教師学習フレームワークであるRetrieved In-Context Principles (RICP)を提案する。
論文 参考訳(メタデータ) (2024-07-08T07:32:26Z) - Progress or Regress? Self-Improvement Reversal in Post-training [26.051637877066327]
本稿では,自己改善のためのポストトレーニングパラダイムの根底にある拡張を精査する包括的評価フレームワークを提案する。
ベンチマークで改善されたパフォーマンスを示すモデルは、パラドックス的により広範で必須の能力の低下を示す。
これらの結果から, ポストトレーニングによる現在の自己改善実践は, より複雑な問題に対処するためのモデルの装備に不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-07-06T09:07:11Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Assessor-Guided Learning for Continual Environments [17.181933166255448]
本稿では,継続的学習のための評価者指導型学習戦略を提案する。
評価者は、学習過程の方向とペースを制御することにより、基礎学習者の学習過程を案内する。
評価器はメタ学習方式でメタオブジェクトを用いて訓練され、ベース学習者の学習プロセスが促進される。
論文 参考訳(メタデータ) (2023-03-21T06:45:14Z) - Persistent Reinforcement Learning via Subgoal Curricula [114.83989499740193]
VaPRL(Value-accelerated Persistent Reinforcement Learning)は、初期状態のカリキュラムを生成する。
VaPRLは、エピソード強化学習と比較して、3桁の精度で必要な介入を減らす。
論文 参考訳(メタデータ) (2021-07-27T16:39:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。