論文の概要: Thinking Like a Student: AI-Supported Reflective Planning in a Theory-Intensive Computer Science Course
- arxiv url: http://arxiv.org/abs/2511.01906v1
- Date: Fri, 31 Oct 2025 12:35:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.579085
- Title: Thinking Like a Student: AI-Supported Reflective Planning in a Theory-Intensive Computer Science Course
- Title(参考訳): 学生のように考える:理論集約型コンピュータサイエンスコースにおけるAI支援反射計画
- Authors: Noa Izsak,
- Abstract要約: 新型コロナウイルスの感染拡大を受け、多くの大学が補足的な「強化」を実施。
本稿では,形式的手法と計算モデルに関する学部課程における強化セッションの再設計について報告する。
介入は学生からの肯定的なフィードバックを受け、自信の向上、不安の軽減、明快さの向上を示唆した。
- 参考スコア(独自算出の注目度): 1.5229257192293202
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the aftermath of COVID-19, many universities implemented supplementary "reinforcement" roles to support students in demanding courses. Although the name for such roles may differ between institutions, the underlying idea of providing structured supplementary support is common. However, these roles were often poorly defined, lacking structured materials, pedagogical oversight, and integration with the core teaching team. This paper reports on the redesign of reinforcement sessions in a challenging undergraduate course on formal methods and computational models, using a large language model (LLM) as a reflective planning tool. The LLM was prompted to simulate the perspective of a second-year student, enabling the identification of conceptual bottlenecks, gaps in intuition, and likely reasoning breakdowns before classroom delivery. These insights informed a structured, repeatable session format combining targeted review, collaborative examples, independent student work, and guided walkthroughs. Conducted over a single semester, the intervention received positive student feedback, indicating increased confidence, reduced anxiety, and improved clarity, particularly in abstract topics such as the pumping lemma and formal language expressive power comparisons. The findings suggest that reflective, instructor-facing use of LLMs can enhance pedagogical design in theoretically dense domains and may be adaptable to other cognitively demanding computer science courses.
- Abstract(参考訳): 新型コロナウイルスの感染拡大を受け、多くの大学が補足的な「強化」を実施。
このような役割の名称は制度によって異なるかもしれないが、構造的な補助的支援を提供するという基本的な考え方は一般的である。
しかしながら、これらの役割は、しばしば定義が不十分で、構造化された材料、教育的な監視、コアの教育チームとの統合が欠如していた。
本稿では,大規模言語モデル(LLM)を反射計画ツールとして用い,形式的手法と計算モデルに関する挑戦的な学部課程における強化セッションの再設計について報告する。
LLMは2年生の視点をシミュレートし、概念的ボトルネック、直観のギャップ、そしておそらくは教室の配達前に原因を解明することを可能にするように促された。
これらの知見は、対象レビュー、協調事例、独立した学生作業、ガイド付きウォークスルーを組み合わせた構造化された繰り返し可能なセッション形式を示唆した。
1学期にわたって実施された介入は、学生からの肯定的なフィードバックを受け、特にポンプ補題や形式言語表現力の比較のような抽象的なトピックにおいて、自信の向上、不安の軽減、明瞭さの向上を示唆した。
この結果から, LLMの反射的, インストラクターによる利用は, 理論的に密集した領域における教育設計を促進でき, 認知に要求される他のコンピュータサイエンスコースにも適応できる可能性が示唆された。
関連論文リスト
- Large Language Models in Architecture Studio: A Framework for Learning Outcomes [0.0]
本研究は,建築デザインスタジオにおける大規模言語モデル(LLM)の役割について考察する。
主な課題は、学生の自主性の管理、ピアフィードバックの緊張、技術知識の伝達と教育における創造性の刺激とのバランスの難しさである。
論文 参考訳(メタデータ) (2025-10-08T02:51:22Z) - Automated Feedback on Student-Generated UML and ER Diagrams Using Large Language Models [39.58317527488534]
LLMツールのプロトタイプであるDUET(Diamatic & ER Tutor)を紹介する。
参照ダイアグラムと学生が提出したダイアグラムをテキスト表現に変換し、違いに基づいて構造化されたフィードバックを提供する。
多段階のLCMパイプラインを使用して図を比較し、反射フィードバックを生成する。
自己指導型学習を奨励し、指導戦略を伝えることを目的として、教育者の分析的な洞察を可能にする。
論文 参考訳(メタデータ) (2025-07-31T11:49:01Z) - From Problem-Solving to Teaching Problem-Solving: Aligning LLMs with Pedagogy using Reinforcement Learning [82.50157695987558]
大規模言語モデル(LLM)は教育を変換することができるが、直接質問応答のための最適化はしばしば効果的な教育を損なう。
オンライン強化学習(RL)に基づくアライメントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-21T15:00:07Z) - Embodied-R: Collaborative Framework for Activating Embodied Spatial Reasoning in Foundation Models via Reinforcement Learning [58.86928947970342]
Embodied-Rは、知覚のための大規模視覚言語モデルと推論のための小規模言語モデルを組み合わせたフレームワークである。
わずか5kのエボダイドビデオサンプルのトレーニングの後、Embodied-Rと3B LMは最先端のマルチモーダル推論モデルと一致した。
Embodied-Rは、体系的分析や文脈統合のような創発的な思考パターンも示している。
論文 参考訳(メタデータ) (2025-04-17T06:16:11Z) - LogiDynamics: Unraveling the Dynamics of Inductive, Abductive and Deductive Logical Inferences in LLM Reasoning [74.0242521818214]
本稿では,大言語モデル(LLM)におけるインダクティブ(システム1)と帰納的/帰納的(システム2)の推論の比較力学を体系的に検討する。
我々は、制御されたアナログ推論環境、多様度(テキスト、視覚、記号)、難易度、タスク形式(MCQ/フリーテキスト)を利用する。
我々の分析によると、System 2のパイプラインは一般的に、特に視覚的/象徴的なモダリティや難しいタスクにおいて優れており、System 1はテキストやより簡単な問題に対して競争力がある。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Investigating the Zone of Proximal Development of Language Models for In-Context Learning [59.91708683601029]
大規模言語モデル(LLM)の文脈内学習(ICL)の振る舞いを分析するための学習分析フレームワークを提案する。
我々は,各例のモデル性能に基づいて,LLMのZPDを測定することにより,ZPD理論をICLに適用する。
本研究はICLの複雑な多面的動作を明らかにし,この手法の理解と活用に関する新たな知見を提供する。
論文 参考訳(メタデータ) (2025-02-10T19:36:21Z) - Enhancing LLM-Based Feedback: Insights from Intelligent Tutoring Systems and the Learning Sciences [0.0]
この研究は、ITSのフィードバック生成に関する以前の研究を通し、AIEDの研究を慎重に支援するものである。
本論文の主な貢献は次のとおりである。 生成AIの時代におけるフィードバック生成において、より慎重で理論的に基礎付けられた手法を適用すること。
論文 参考訳(メタデータ) (2024-05-07T20:09:18Z) - Demystifying Chains, Trees, and Graphs of Thoughts [22.735913368597227]
利用構造の基本クラスを特定することに集中し、これらの構造表現を分析する。
本研究は,提案した分類法を用いて既存のプロンプト方式と比較し,特定の設計選択が性能とコストの異なるパターンにどのように寄与するかを論じる。
論文 参考訳(メタデータ) (2024-01-25T16:34:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。