論文の概要: NuzzleBug: Debugging Block-Based Programs in Scratch
- arxiv url: http://arxiv.org/abs/2309.14465v1
- Date: Mon, 25 Sep 2023 18:56:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 06:28:02.799045
- Title: NuzzleBug: Debugging Block-Based Programs in Scratch
- Title(参考訳): NuzzleBug: Scratchでブロックベースのプログラムをデバッグする
- Authors: Adina Deiner and Gordon Fraser
- Abstract要約: NuzzleBugは、人気のあるブロックベースのプログラミング環境であるScratchの拡張である。
これは、実行について質問し、回答を提供することができる尋問デバッガである。
教師はNuzzleBugが有用であると考えており、子どもたちはプログラムの欠陥を効果的にデバッグすることができる。
- 参考スコア(独自算出の注目度): 11.182625995483862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While professional integrated programming environments support developers
with advanced debugging functionality, block-based programming environments for
young learners often provide no support for debugging at all, thus inhibiting
debugging and preventing debugging education. In this paper we introduce
NuzzleBug, an extension of the popular block-based programming environment
Scratch that provides the missing debugging support. NuzzleBug allows
controlling the executions of Scratch programs with classical debugging
functionality such as stepping and breakpoints, and it is an omniscient
debugger that also allows reverse stepping. To support learners in deriving
hypotheses that guide debugging, NuzzleBug is an interrogative debugger that
enables to ask questions about executions and provides answers explaining the
behavior in question. In order to evaluate NuzzleBug, we survey the opinions of
teachers, and study the effects on learners in terms of debugging effectiveness
and efficiency. We find that teachers consider NuzzleBug to be useful, and
children can use it to debug faulty programs effectively. However, systematic
debugging requires dedicated training, and even when NuzzleBug can provide
correct answers learners may require further help to comprehend faults and
necessary fixes, thus calling for further research on improving debugging
techniques and the information they provide.
- Abstract(参考訳): プロフェッショナルな統合プログラミング環境は、高度なデバッグ機能を持つ開発者をサポートするが、若い学習者のためのブロックベースのプログラミング環境は、デバッグをまったくサポートしないことが多い。
本稿では,人気のあるブロックベースのプログラミング環境であるscratchの拡張であるnuzzlebugを紹介する。
NuzzleBugは、ステップやブレークポイントといった古典的なデバッグ機能を備えたScratchプログラムの実行を制御することができる。
NuzzleBugは,デバッグをガイドする仮説の導出を支援するために,実行に関する質問と,問題の動作を説明する回答を提供するための質問型デバッガである。
NuzzleBugを評価するために,教師の意見を調査し,デバッグの有効性と効率性の観点から学習者に与える影響を検討する。
教師はNuzzleBugが有用であると考えており、子どもたちはプログラムの欠陥を効果的にデバッグすることができる。
しかし、システマティックデバッギングには専用のトレーニングが必要であり、たとえNuzzleBugが正しい回答を提供することができたとしても、学習者は欠陥と必要な修正を理解するのにさらなる助けを必要とする可能性がある。
関連論文リスト
- VeriBug: An Attention-based Framework for Bug-Localization in Hardware
Designs [2.807347337531008]
近年,様々な用途を対象としたSystem-on-Chip設計の規模と複雑さが指数関数的に増大している。
これらのシステムにおける未検出バグのコストは、従来のプロセッサシステムよりもはるかに高い。
本稿では,近年のディープラーニングの進歩を活用してレジスタ・トランスファーレベルのデバッグを高速化するVeriBugを提案し,根本原因の可能性のある説明を生成する。
論文 参考訳(メタデータ) (2024-01-17T01:33:37Z) - Leveraging Print Debugging to Improve Code Generation in Large Language
Models [63.63160583432348]
大規模言語モデル(LLM)はコード生成タスクにおいて大きな進歩を遂げた。
しかし、複雑なデータ構造やアルゴリズムによるプログラミング問題に対処する彼らのパフォーマンスは、依然として準最適である。
そこで本稿では,LLM のデバッグを "print debugging" 手法でガイドする,コンテキスト内学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-10T18:37:59Z) - DebugBench: Evaluating Debugging Capability of Large Language Models [89.13051256657995]
DebugBench - LLM(Large Language Models)のベンチマーク。
C++、Java、Pythonの4つの主要なバグカテゴリと18のマイナータイプをカバーする。
ゼロショットシナリオで2つの商用モデルと3つのオープンソースモデルを評価する。
論文 参考訳(メタデータ) (2024-01-09T15:46:38Z) - Teaching Large Language Models to Self-Debug [62.424077000154945]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
本稿では,大規模言語モデルで予測プログラムを数発のデモでデバッグする自己デバッグを提案する。
論文 参考訳(メタデータ) (2023-04-11T10:43:43Z) - Giving Feedback on Interactive Student Programs with Meta-Exploration [74.5597783609281]
ウェブサイトやゲームのようなインタラクティブなソフトウェアを開発することは、特にコンピュータ科学を学ぶための魅力的な方法である。
標準的アプローチでは、インストラクターは、学生が実装した対話型プログラムを手動で評価する必要がある。
Code.orgのような何百万ものオンラインプラットフォームは、インタラクティブなプログラムを実装するための代入に関するフィードバックを提供することができない。
論文 参考訳(メタデータ) (2022-11-16T10:00:23Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Explanation-Based Human Debugging of NLP Models: A Survey [15.115037763351003]
この問題を説明ベースのヒューマンデバッグ(EBHD)と呼ぶ。
特に、EBHDの3つの主次元に沿った既存の作品の分類と議論を行う。
論文 参考訳(メタデータ) (2021-04-30T17:53:07Z) - Cockpit: A Practical Debugging Tool for Training Deep Neural Networks [27.96164890143314]
学習機械の内部動作をより深く観察することのできる機器のコレクションを提示する。
これらの機器は勾配分布と曲率に関する新しい高次情報を利用する。
論文 参考訳(メタデータ) (2021-02-12T16:28:49Z) - Eye: Program Visualizer for CS2 [1.319058156672392]
Eyeはプログラムの実行を視覚化するインタラクティブツールである。
一般的な環境でのデータ構造の特性と利用を実証する。
EyeはCS2の学生がオンラインプログラミングのWebサイトで利用できる無数のプログラムをより容易に理解するためのゲートウェイを開く。
論文 参考訳(メタデータ) (2021-01-28T16:16:59Z) - Learning by Fixing: Solving Math Word Problems with Weak Supervision [70.62896781438694]
数学用語問題(mwps)の従来のニューラルネットワークソルバは、完全な監視によって学習され、多様なソリューションを生み出すことができない。
MWPを学習するためのテキスト弱教師付きパラダイムを提案する。
この手法は最終回答のアノテーションのみを必要とし、単一の問題に対して様々な解決策を生成できる。
論文 参考訳(メタデータ) (2020-12-19T03:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。