論文の概要: An Investigation Into Secondary School Students' Debugging Behaviour in Python
- arxiv url: http://arxiv.org/abs/2508.14833v1
- Date: Wed, 20 Aug 2025 16:34:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.528804
- Title: An Investigation Into Secondary School Students' Debugging Behaviour in Python
- Title(参考訳): 中学生のPythonにおけるデバッグ行動に関する調査研究
- Authors: Laurie Gale, Sue Sentance,
- Abstract要約: 本稿では,K-12の学生がテキストベースのプログラミング言語を学習する際のデバッグ行動について検討する。
学生によって様々な行動が示され、効果がないよう歪められた。
デバッグに苦労している学生は、脆弱な知識と、その結果を見るためのレンズを持っている、と我々は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Background and context: Debugging is a common and often frustrating challenge for beginner programmers. Understanding students' debugging processes can help us identify the difficulties and misunderstandings they possess. However, we currently have limited knowledge of how secondary students debug in a text-based language, a medium through which millions of students will learn to program in the future. Objectives: In this paper, we investigate the debugging behaviour of K-12 students learning a text-based programming language, as part of an effort to shape how to effectively teach debugging to these students. Method: We collected log data from 73 students attempting a set of debugging exercises using an online code editor. We inductively analysed these logs using qualitative content analysis, generating a categorisation of the debugging behaviours observed. Findings: A range of behaviours were exhibited by students, skewed towards being ineffective. Most students were able to partially locate errors but often struggled to resolve them, sometimes introducing additional errors in the process. We argue that students struggling to debug possess fragile knowledge, a lens through which we view the results. Implications: This paper highlights some of the difficulties K-12 learners have when debugging in a text-based programming language. We argue, like much related work, that effective debugging strategies should be explicitly taught, while ineffective strategies should be discouraged.
- Abstract(参考訳): バックグラウンドとコンテキスト: デバッグは初心者プログラマにとって一般的でフラストレーションの多い課題です。
学生のデバッグプロセスを理解することは、自分たちが持っている困難や誤解を特定するのに役立つ。
しかし、現在、何百万人もの学生が将来プログラミングを学ぶメディアであるテキストベースの言語で、中等生がどのようにデバッグするかについての知識は限られている。
目的:本稿では,K-12の学生がテキストベースのプログラミング言語を学習する際のデバッグ行動について検討する。
方法: オンラインコードエディターを用いて, 73名の学生のログデータを収集し, 一連のデバッグ演習を行った。
我々はこれらのログを質的コンテンツ分析を用いて帰納的に分析し、観察されたデバッグ動作の分類を生成する。
発見: 学生によって様々な行動が示され, 効果が低い傾向がみられた。
ほとんどの学生はエラーを部分的に見つけることができたが、しばしば解決に苦労し、時には追加のエラーを発生させた。
デバッグに苦労している学生は、脆弱な知識と、その結果を見るためのレンズを持っている、と我々は主張する。
意味:本論文は,K-12学習者がテキストベースのプログラミング言語でデバッグする場合の難しさを浮き彫りにする。
多くの関連作業と同様に、効果的なデバッグ戦略は明示的に教えるべきであり、非効率的な戦略は避けるべきである、と私たちは主張する。
関連論文リスト
- NL-Debugging: Exploiting Natural Language as an Intermediate Representation for Code Debugging [68.42255321759062]
大規模言語モデル(LLM)の最近の進歩は、コード関連タスクを強化するために自然言語推論を活用することに注意を向けている。
本稿では,自然言語を中間表現として用い,コード改善のための新しいフレームワークであるNL-GINGを紹介する。
論文 参考訳(メタデータ) (2025-05-21T10:38:50Z) - Learning Code-Edit Embedding to Model Student Debugging Behavior [2.1485350418225244]
本稿では,学生の連続的なコード入力間で有意義なコード編集を学習するエンコーダ-デコーダモデルを提案する。
テストケースの正確性を改善しながら、生徒のコーディングスタイルを維持するための、パーソナライズされた次のステップのコード提案を可能にする。
論文 参考訳(メタデータ) (2025-02-26T18:54:39Z) - BugSpotter: Automated Generation of Code Debugging Exercises [22.204802715829615]
本稿では,問題記述からバグコードを生成するツールであるBugSpotterを紹介する。
学生は失敗するテストケースを設計することでBugSpotterと対話する。
論文 参考訳(メタデータ) (2024-11-21T16:56:33Z) - A Proposal for a Debugging Learning Support Environment for Undergraduate Students Majoring in Computer Science [0.0]
生徒はデバッガの使い方を知らないし、使ったこともない。
我々は,正しいブレークポイント配置の自己学習を可能にする機能をScratchに実装した。
論文 参考訳(メタデータ) (2024-07-25T03:34:19Z) - Leveraging Print Debugging to Improve Code Generation in Large Language
Models [63.63160583432348]
大規模言語モデル(LLM)はコード生成タスクにおいて大きな進歩を遂げた。
しかし、複雑なデータ構造やアルゴリズムによるプログラミング問題に対処する彼らのパフォーマンスは、依然として準最適である。
そこで本稿では,LLM のデバッグを "print debugging" 手法でガイドする,コンテキスト内学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-10T18:37:59Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - Giving Feedback on Interactive Student Programs with Meta-Exploration [74.5597783609281]
ウェブサイトやゲームのようなインタラクティブなソフトウェアを開発することは、特にコンピュータ科学を学ぶための魅力的な方法である。
標準的アプローチでは、インストラクターは、学生が実装した対話型プログラムを手動で評価する必要がある。
Code.orgのような何百万ものオンラインプラットフォームは、インタラクティブなプログラムを実装するための代入に関するフィードバックを提供することができない。
論文 参考訳(メタデータ) (2022-11-16T10:00:23Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - On the Robustness of Language Encoders against Grammatical Errors [66.05648604987479]
我々は、非ネイティブ話者から実際の文法的誤りを収集し、これらの誤りをクリーンテキストデータ上でシミュレートするために敵攻撃を行う。
結果,全ての試験モデルの性能は影響するが,影響の程度は異なることがわかった。
論文 参考訳(メタデータ) (2020-05-12T11:01:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。