論文の概要: Automatically Generating Questions About Scratch Programs
- arxiv url: http://arxiv.org/abs/2510.11658v1
- Date: Mon, 13 Oct 2025 17:34:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.483645
- Title: Automatically Generating Questions About Scratch Programs
- Title(参考訳): スクラッチプログラムに関する質問を自動的に生成する
- Authors: Florian Obermüller, Gordon Fraser,
- Abstract要約: 確立したプログラム理解モデルをカバーするScratchコードに対して,30種類の質問セットを提案する。
我々は、LitterBox静的解析ツールを拡張して、与えられたScratchプログラムの対応する質問を自動的に生成する。
600,913のプロジェクトのデータセットでは、54,118,694の質問を自動的に生成しました。
- 参考スコア(独自算出の注目度): 10.726203107125315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When learning to program, students are usually assessed based on the code they wrote. However, the mere completion of a programming task does not guarantee actual comprehension of the underlying concepts. Asking learners questions about the code they wrote has therefore been proposed as a means to assess program comprehension. As creating targeted questions for individual student programs can be tedious and challenging, prior work has proposed to generate such questions automatically. In this paper we generalize this idea to the block-based programming language Scratch. We propose a set of 30 different questions for Scratch code covering an established program comprehension model, and extend the LitterBox static analysis tool to automatically generate corresponding questions for a given Scratch program. On a dataset of 600,913 projects we generated 54,118,694 questions automatically. Our initial experiments with 34 ninth graders demonstrate that this approach can indeed generate meaningful questions for Scratch programs, and we find that the ability of students to answer these questions on their programs relates to their overall performance.
- Abstract(参考訳): プログラミングを学ぶとき、学生は通常、書いたコードに基づいて評価される。
しかし、プログラミングタスクの完了は、基礎となる概念の実際の理解を保証するものではない。
そこで,プログラム理解を評価する手段として,学習者が書いたコードについて質問する手法が提案されている。
個別の学生プログラムに対して対象とする質問を作成するのは面倒で難しいため、事前の作業ではそのような質問を自動的に生成する提案がなされている。
本稿では,このアイデアをブロックベースのプログラミング言語であるScratchに一般化する。
確立されたプログラム理解モデルをカバーするScratchコードに対して30種類の質問セットを提案し、LitterBox静的解析ツールを拡張して、与えられたScratchプログラムに対応する質問を自動的に生成する。
600,913のプロジェクトのデータセットでは、54,118,694の質問を自動的に生成しました。
第34学年の初等生を対象に行った実験では,Scratchプログラムに有意義な疑問を生じさせることが実証された。
関連論文リスト
- Self-Questioning Language Models [58.73276539661649]
本稿では,提案者がトピックを与えられ,解答者に対する質問を生成する非対称なセルフプレイフレームワークを提案する。
提案者と解答者はともに強化学習を通じて訓練される。
3桁の乗算、OMEGAベンチマークの代数問題、Codeforcesのプログラミング問題である。
論文 参考訳(メタデータ) (2025-08-05T17:51:33Z) - Probing the Unknown: Exploring Student Interactions with Probeable Problems at Scale in Introductory Programming [4.1153199495993364]
本研究では、意図的な曖昧さや不完全な仕様を持つ自動段階的タスクであるProbeable Problems'の使用について検討する。
このような問題に対して、学生はテストのインプットを提出するか、あるいは「調査」し、実施前の要件を明らかにする必要がある。
コーディング前に期待される振る舞いを徹底的に探求するなど、体系的な戦略は、間違ったコードへの提出を減らし、コースの成功と相関する結果となった。
論文 参考訳(メタデータ) (2025-04-16T02:50:00Z) - Let's Ask AI About Their Programs: Exploring ChatGPT's Answers To Program Comprehension Questions [2.377308748205625]
我々は,LLMが生成したコードから生成されたQLCに応答する,最先端のLCMの能力について検討する。
この結果から,現在最先端のLCMではプログラム作成やプログラム実行の追跡が可能であるが,初心者プログラマが記録した類似のエラーに容易に対応できることが示唆された。
論文 参考訳(メタデータ) (2024-04-17T20:37:00Z) - Automated Questions About Learners' Own Code Help to Detect Fragile
Knowledge [0.0]
学生は、実際にどのように動作するかを脆弱に理解していても、正しく機能するプログラムコードを作成できる。
個々のエクササイズ提出書(QLC)から自動的に抽出された質問は、学生が作成したコードの構造とロジックを十分に理解しているかどうかを調査することができる。
論文 参考訳(メタデータ) (2023-06-28T14:49:16Z) - CodeQA: A Question Answering Dataset for Source Code Comprehension [82.63394952538292]
コードスニペットと質問が与えられたら、テキストによる回答を生成する必要がある。
CodeQAには、119,778の問合せペアを持つJavaデータセットと、70,085の問合せペアを持つPythonデータセットが含まれている。
論文 参考訳(メタデータ) (2021-09-17T06:06:38Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Students Struggle to Explain Their Own Program Code [0.0]
プログラミング演習に応募した後、学生に小プログラムの構造と実行について説明するよう依頼する。
生徒の3分の1は、自身のプログラムコードを説明するのに苦労した。
以上の結果から,QLCの正解は,単に正しいプログラムを提出するよりも,学生の成功率と保持率との相関が強いことが示唆された。
論文 参考訳(メタデータ) (2021-04-14T09:13:05Z) - Let's Ask Students About Their Programs, Automatically [0.0]
学生は時に機能するコードを生成するが、その作者は理解していない。
これらの問題に対処する方法の1つは、生徒が自分のプログラムについて質問することで、生徒の理解を調査することである。
本稿では,学生が書いたプログラムコードに関する質問を自動的に生成する手法を提案する。
論文 参考訳(メタデータ) (2021-03-20T09:15:37Z) - Retrieve, Program, Repeat: Complex Knowledge Base Question Answering via
Alternate Meta-learning [56.771557756836906]
本稿では,弱い監督からプログラマと交互に検索モデルを自動的に学習する手法を提案する。
本システムでは,知識ベースに対する複雑な質問応答を行う大規模タスクにおいて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-29T18:28:16Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。