論文の概要: Self-Regulated Personal Contracts as a Harm Reduction Approach to Generative AI in Undergraduate Programming Education
- arxiv url: http://arxiv.org/abs/2604.03256v1
- Date: Wed, 11 Mar 2026 21:08:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-12 18:41:08.557977
- Title: Self-Regulated Personal Contracts as a Harm Reduction Approach to Generative AI in Undergraduate Programming Education
- Title(参考訳): プログラミング教育におけるAI生成へのハーム削減手法としての自己規制型個人契約
- Authors: Aadarsh Padiyath, Jessica Shen, Barbara Ericson,
- Abstract要約: プログラミングエクササイズエージェンシーを学習し、ChatGPTのようなGenAIツールをいつ、どのように使うかを決定する。
我々は,リスク低減と自己統制型学習理論に基づくGenAI契約を,意図的な意思決定の足場として設計した。
- 参考スコア(独自算出の注目度): 2.5489046505746704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Students learning programming exercise agency in deciding when and how to use GenAI tools like ChatGPT. However, this agency is often implicit and shaped by deadline pressure and peer behavior rather than explicit and conscious learning goals. We designed a GenAI Contract grounded in harm reduction and self-regulated learning theory to scaffold intentional decision-making: students articulated personal learning goals, created usage guidelines, and reflected on alignment at strategic points across an eleven-week semester. The contract was non-binding and graded only for completion, emphasizing self-awareness over enforcement. We implemented this with N=217 students in an intermediate Python course. For students still forming their relationship with GenAI, it worked, as 58% of students reported the intervention changing their thinking and created helpful accountability structures. However, awareness did not always translate to sustained behavior change. Some students who valued their guidelines still abandoned them under various pressures. Maintaining guidelines required constant self-control across hundreds of decisions, while using GenAI freely requires none. Many students could not sustain this burden despite this self-awareness. We discuss supporting student agency when GenAI tools and learning goals create tension.
- Abstract(参考訳): プログラミングエクササイズエージェンシーを学習し、ChatGPTのようなGenAIツールをいつ、どのように使うかを決定する。
しかしながら、このエージェンシーはしばしば、明示的で意識的な学習目標よりも、期限のプレッシャーとピアの振る舞いによって暗黙的に形作られています。
我々は,リスク低減と自己統制型学習理論に基づくGenAI契約を,学生が個人的学習目標を明確化し,利用ガイドラインを作成し,11学期にわたる戦略点のアライメントに反映する,意図的な意思決定の足場として設計した。
契約は拘束力がなく、完成のためにのみ格付けされ、執行に対する自己認識を強調した。
中間PythonコースのN=217名の学生を対象にこれを実装した。
学生の58%が自分の思考を変える介入を報告し、有益な説明責任構造を作り出した。
しかし、意識が常に持続的な行動変化に繋がるとは限らない。
ガイドラインを重んじる学生の中には、様々な圧力でそれを放棄する者もいた。
ガイドラインの維持には数百の意思決定に対して常に自己管理が必要であり、GenAIを使用することは自由に不要である。
この自己認識にもかかわらず、多くの学生はこの負担に耐えられなかった。
我々は、GenAIツールと学習目標が緊張を引き起こすとき、学生エージェンシーを支援することについて議論する。
関連論文リスト
- GASP: Guided Asymmetric Self-Play For Coding LLMs [37.79170066221302]
非対称なセルフプレイは、大規模言語モデルの訓練後において有望なパラダイムとして現れている。
本稿では,リアルタイムなゴールポスト質問によるグラウンド化を実現するためのガイド付き非対称セルフプレイ(GASP)を提案する。
We improve pass@20 on LiveCodeBench (LCB) by 2.5% by unguided asymmetric self-play。
論文 参考訳(メタデータ) (2026-03-16T22:13:19Z) - Ensuring Computer Science Learning in the AI Era: Open Generative AI Policies and Assignment-Driven Written Quizzes [0.0]
本稿では、家庭内プログラミングの課題に生成AIを使用できるアセスメントモデルを提案する。
真正学習を促進するために、クラス内のクローズドブックアセスメントは課題そのものよりも重み付けされている。
統計分析の結果,GenAI使用率と評価結果との間に有意な線形相関は認められなかった。
論文 参考訳(メタデータ) (2026-01-16T17:02:44Z) - On the Role and Impact of GenAI Tools in Software Engineering Education [2.867517731896504]
ChatGPTやGitHub CopilotといったジェネレーティブAI(GenAI)ツールは、ソフトウェアの学習と書き方を変えました。
ソフトウェア工学(SE)教育において、これらのツールはサポートの新しい機会を提供するだけでなく、過度な信頼、倫理的利用、学習への影響に対する懸念も引き起こす。
本研究は,学部生がGenAIツールをどのように利用するか,そのメリット,課題,倫理的懸念,経験を形作る教育的期待に焦点をあてるものである。
論文 参考訳(メタデータ) (2025-12-03T20:51:16Z) - From Recall to Reasoning: Automated Question Generation for Deeper Math Learning through Large Language Models [44.99833362998488]
先進数学のためのコンテンツ生成を最適化する第1ステップについて検討した。
我々は、GenAIがコース内容に関連する高品質な実践問題を生み出す能力について検討した。
論文 参考訳(メタデータ) (2025-05-17T08:30:10Z) - Early Adoption of Generative Artificial Intelligence in Computing Education: Emergent Student Use Cases and Perspectives in 2023 [38.83649319653387]
コンピュータ学生のGenAI利用と認識に関する先行研究は限られている。
私たちは、小さなエンジニアリングに焦点を当てたR1大学で、すべてのコンピュータサイエンス専攻を調査しました。
我々は,GenAIと教育に関する新たな議論に対する知見の影響について論じる。
論文 参考訳(メタデータ) (2024-11-17T20:17:47Z) - Misconceptions, Pragmatism, and Value Tensions: Evaluating Students' Understanding and Perception of Generative AI for Education [0.11704154007740832]
学生はこの技術のアーリーアダプターであり、非典型的手法で利用している。
学生は,1)GenAIの理解,2)GenAIの利用,3)教育における利用に関するメリット,欠点,倫理的問題について,その説明を求めた。
論文 参考訳(メタデータ) (2024-10-29T17:41:06Z) - The Great AI Witch Hunt: Reviewers Perception and (Mis)Conception of Generative AI in Research Writing [36.188062803005515]
研究執筆におけるジェネレーティブAI(GenAI)の利用は急速に増加している。
ピアレビュアーがAIによる増補された写本をどう認識するか、それとも誤認しているかは明らかでない。
我々の研究結果は、AIによって強化された文章は可読性、言語多様性、情報性を改善するが、しばしば研究の詳細や著者からの反射的な洞察を欠いていることを示唆している。
論文 参考訳(メタデータ) (2024-06-27T02:38:25Z) - The Widening Gap: The Benefits and Harms of Generative AI for Novice Programmers [1.995977018536036]
初心者プログラマはメタ認知的認識と戦略の欠如により、しばしば問題解決に苦しむ。
多くの初心者がジェネレーティブAI(GenAI)を使ってプログラミングしている
その結果, 加速した学生と苦労した学生の間には, GenAIツールの使用が不運な部分があることが判明した。
論文 参考訳(メタデータ) (2024-05-28T01:48:28Z) - Toward Open-ended Embodied Tasks Solving [36.57814561043965]
textitDiffusion for Open-ended Goals (DOG)は、組み込みAIがオープンエンドタスクの目標に対して柔軟に計画および行動できるように設計されたフレームワークである。
DOGは、オンライン計画と制御を適応的に行うために、拡散モデルの生成技術を最先端の訓練なし指導技術と相乗効果する。
私たちの仕事は、AIの適応性と、オープンな目標に対処する能力を高めることに光を当てています。
論文 参考訳(メタデータ) (2023-12-10T08:43:26Z) - Innovating Computer Programming Pedagogy: The AI-Lab Framework for
Generative AI Adoption [0.0]
我々は、中核的なプログラミングコースでGenAIを効果的に活用するために、学生を指導するフレームワーク「AI-Lab」を紹介した。
GenAIの誤りを特定し、修正することで、学生は学習プロセスを充実させる。
教育者にとって、AI-Labは、学習経験におけるGenAIの役割に対する学生の認識を探索するメカニズムを提供する。
論文 参考訳(メタデータ) (2023-08-23T17:20:37Z) - Reinforcement Learning Tutor Better Supported Lower Performers in a Math
Task [32.6507926764587]
強化学習は、開発コストを削減し、インテリジェントな学習ソフトウェアの有効性を向上させるための重要なツールとなり得る。
本研究では, 深層強化学習を用いて, 音量の概念を学習する学生に適応的な教育支援を行うことができることを示す。
論文 参考訳(メタデータ) (2023-04-11T02:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。