論文の概要: Context-Specific Instruction: A Longitudinal Study on Debugging Skill Acquisition and Retention for Novice Programmers
- arxiv url: http://arxiv.org/abs/2509.22420v1
- Date: Fri, 26 Sep 2025 14:42:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.513633
- Title: Context-Specific Instruction: A Longitudinal Study on Debugging Skill Acquisition and Retention for Novice Programmers
- Title(参考訳): 文脈特化指導:初心者プログラマのデバッグスキル獲得と保持に関する縦断的研究
- Authors: Ziyi Zhang, Devjeet Roy, Venera Arnaoudova,
- Abstract要約: バグローカライゼーションは重要なスキルであるが、初心者はしばしば体系的なアプローチを欠いている。
本研究は8週間の縦断的研究を行い,4つの条件(命令なし,抽象的ガイドラインなし,具体的ステップなし,文脈特有な指示なし)について検討した。
文脈固有の指導は、抽象的なガイドラインや文脈に依存しないステップよりも、スキルの獲得と保持が早くなると結論付けている。
- 参考スコア(独自算出の注目度): 8.991354521372864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bug localization is a critical skill, yet novices often lack systematic approaches. Prior work tested abstract guidelines and general concrete steps; the impact of context-specific instruction is unclear. We ran an eight-week longitudinal study with four conditions: no instruction (G1), abstract guidelines (G2), concrete steps (G3), and our context-specific instruction that pairs concrete bug-localization steps with problem-specific details (G4). Forty-four undergraduates participated; 41 completed all five sessions (S1-S5). Each session included 2-3 debugging tasks to identify the minimal code element containing a seeded logical fault. We measured correctness (binary), time to completion, self-perceived scores (stress, difficulty, satisfaction, and strategy adherence). G4 achieved higher correctness and shorter time to completion: it reached 80% correctness after one session (vs. 20-44% for other groups) and maintained 80% after three weeks, outperforming all groups (p < 0.05); its time to completion stabilized at 13-15 minutes in S1, whereas other groups took 2-3 sessions to stabilize at 22-27 minutes. Qualitative responses showed lower stress and higher satisfaction in G4, with participants internalizing strategies via contextual examples. We conclude that context-specific instruction yields faster skill acquisition and stronger retention than abstract guidelines or context-agnostic steps. Even 1-2 sessions produced significant gains, while extended practice optimized and stabilized performance. Integrating contextual examples with abstract principles may bridge theory-practice gaps in bug-localization education and provide a more equitable path for novices.
- Abstract(参考訳): バグローカライゼーションは重要なスキルであるが、初心者はしばしば体系的なアプローチを欠いている。
以前の作業では抽象的なガイドラインや一般的な具体的な手順がテストされていた。
我々は,4つの条件(G1),抽象的ガイドライン(G2),具体的ステップ(G3),具体的バグ局所化ステップと問題特異的詳細(G4))の4つの条件による8週間の縦断的研究を行った。
41人が全5セッション(S1-S5)を完了した。
各セッションには、シードされた論理的欠陥を含む最小限のコード要素を特定するための2~3のデバッグタスクが含まれていた。
正当性(バイナリ)、完成までの時間、自己評価スコア(ストレス、難易度、満足度、戦略順守)を測定した。
G4は1回のセッション(vs.20-44%)で80%の正確性に達し、3週間で80%を維持し、全グループ(p < 0.05)を上回り、S1では13~15分、他のグループは22~27分で2~3セッションを安定させた。
質的反応はG4のストレスが低く,満足度が高かった。
文脈固有の指導は、抽象的なガイドラインや文脈に依存しないステップよりも、スキルの獲得と保持が早くなると結論付けている。
1-2セッションでさえ大きな成果を上げ、拡張されたプラクティスは最適化され、パフォーマンスが安定しました。
文脈例と抽象原理を統合することは、バグローカライゼーション教育における理論-実践的ギャップを橋渡しし、初心者にとってより公平な経路を提供する。
関連論文リスト
- Eigen-1: Adaptive Multi-Agent Refinement with Monitor-Based RAG for Scientific Reasoning [53.45095336430027]
暗黙的な検索と構造化された協調を組み合わせた統合フレームワークを開発する。
Humanity's Last Exam (HLE) Bio/Chem Goldでは,48.3%の精度を実現している。
SuperGPQAとTRQAの結果はドメイン間の堅牢性を確認した。
論文 参考訳(メタデータ) (2025-09-25T14:05:55Z) - Evaluating Large Language Models on Spatial Tasks: A Multi-Task Benchmarking Study [4.80612909282198]
本研究では,空間的タスクにおけるいくつかの高度なモデルの性能を探索し,比較するために,新しいマルチタスク空間評価データセットを提案する。
データセットには、空間的理解や単純なルート計画など、12の異なるタスクタイプが含まれており、それぞれが検証され、正確な答えを持っている。
論文 参考訳(メタデータ) (2024-08-26T17:25:16Z) - Is Sarcasm Detection A Step-by-Step Reasoning Process in Large Language Models? [13.222198659253056]
4つのサブメソッドを含む新しいプロンプトフレームワーク(SarcasmCue)を導入する。
シーケンシャルおよび非シーケンシャルなプロンプト法を考慮し、人間の皮肉を検出するために、大きな言語モデル(LLM)を用いる。
我々のフレームワークは、4つのデータセットでF1スコアの4.2%、2.0%、29.7%、58.2%を継続的に最先端(ToT)にプッシュします。
論文 参考訳(メタデータ) (2024-07-17T16:42:03Z) - Hierarchical Decomposition of Prompt-Based Continual Learning:
Rethinking Obscured Sub-optimality [55.88910947643436]
大量のラベルのないデータを実際に扱うためには、自己教師付き事前トレーニングが不可欠である。
HiDe-Promptは、タスク固有のプロンプトと統計のアンサンブルで階層的なコンポーネントを明示的に最適化する革新的なアプローチである。
実験では,HiDe-Promptの優れた性能と,継続学習における事前学習パラダイムへの頑健さを実証した。
論文 参考訳(メタデータ) (2023-10-11T06:51:46Z) - Prompt Engineering or Fine-Tuning: An Empirical Assessment of LLMs for Code [7.760653867600283]
我々は,基本的なプロンプト,コンテキスト内学習,タスク固有のプロンプトという3つのプロンプト技術戦略を用いて,GPT-4を評価する。
コード要約、生成、翻訳という3つのコード関連タスクに関する17の微調整モデルと比較する。
論文 参考訳(メタデータ) (2023-10-11T00:21:00Z) - Instruction Tuning for Few-Shot Aspect-Based Sentiment Analysis [72.9124467710526]
生成的アプローチは、テキストから(1つ以上の)4つの要素を1つのタスクとして抽出するために提案されている。
本稿では,ABSAを解くための統一的なフレームワークと,それに関連するサブタスクを提案する。
論文 参考訳(メタデータ) (2022-10-12T23:38:57Z) - UnifiedSKG: Unifying and Multi-Tasking Structured Knowledge Grounding
with Text-to-Text Language Models [170.88745906220174]
本稿では,21のSKGタスクをテキスト・テキスト・フォーマットに統一するSKGフレームワークを提案する。
我々は,UnifiedSKGが21タスクのほぼすべてにおいて最先端のパフォーマンスを達成することを示す。
また、UnifiedSKGを用いて、SKGタスク間の変異をコードする構造化知識に関する一連の実験を行う。
論文 参考訳(メタデータ) (2022-01-16T04:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。