論文の概要: Assessing Problem Decomposition in CS1 for the GenAI Era
- arxiv url: http://arxiv.org/abs/2511.05764v1
- Date: Fri, 07 Nov 2025 23:21:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.567759
- Title: Assessing Problem Decomposition in CS1 for the GenAI Era
- Title(参考訳): GenAI時代のCS1における問題分解の評価
- Authors: Samvrit Srinath, Annapurna Vadaparty, David H. Smith IV, Leo Porter, Daniel Zingaro,
- Abstract要約: 本稿では,問題分解の技能を評価するための質問の開発について詳述する。
問題の分解に固有の課題は、必ずしも長いコンテキストである。
本稿では,分解図のオープンエンド描画を別の評価方法として用いた。
- 参考スコア(独自算出の注目度): 0.32622301272834514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Problem decomposition--the ability to break down a large task into smaller, well-defined components--is a critical skill for effectively designing and creating large programs, but it is often not included in introductory computer science curricula. With the rise of generative AI (GenAI), students even at the introductory level are able to generate large quantities of code, and it is becoming increasingly important to equip them with the ability to decompose problems. There is not yet a consensus among educators on how to best teach and assess the skill of decomposition, particularly in introductory computing. This practitioner paper details the development of questions to assess the skill of problem decomposition, and impressions about how these questions were received by students. A challenge unique to problem decomposition questions is their necessarily lengthy context, and we detail our approach to addressing this problem using Question Suites: scaffolded sequences of questions that help students understand a question's context before attempting to decompose it. We then describe the use of open-ended drawing of decomposition diagrams as another form of assessment. We outline the learning objectives used to design our questions and describe how we addressed challenges encountered in early iterations. We present our decomposition assessment materials and reflections on them for educators who wish to teach problem decomposition to beginner programmers.
- Abstract(参考訳): 問題分解 - 大きなタスクをより小さく、明確に定義されたコンポーネントに分解する能力は、大規模なプログラムを効果的に設計し作成するための重要なスキルである。
生成AI(GenAI)の台頭に伴い、導入段階の学生でも大量のコードを生成することが可能となり、問題を分解する能力を備えることがますます重要になっている。
イントロダクティブ・コンピューティングにおいて、分解のスキルを最もよく教え、評価する方法について、教育者の間ではまだ合意が得られていない。
本論文は,課題分解のスキルを評価するための質問の展開と,これらの質問が学生にどのように受け入れられたのかについての印象を詳述する。
問題分解問題に特有の課題は、必ずしも長いコンテキストであり、質問スイートを使ってこの問題に対処するためのアプローチについて詳述する。
次に、分解図のオープンエンド描画を別の形式として記述する。
質問を設計するのに使用する学習目標の概要と、初期のイテレーションで遭遇した課題にどのように対処したかを説明した。
本稿では,初心者プログラマに問題分解を教えたい教育者に対して,その分解評価資料とリフレクションを提案する。
関連論文リスト
- The CTSkills App -- Measuring Problem Decomposition Skills of Students in Computational Thinking [2.267572868634791]
本稿では,K-12コンピュータサイエンス教育におけるCT(Computer Thinking)の重要な構成要素として,問題分解スキルの導入について論じる。
CTSKillsは,学生の問題解決能力を測定するために開発された Web ベースのスキルアセスメントツールである。
論文 参考訳(メタデータ) (2024-11-22T13:57:49Z) - Ask Questions with Double Hints: Visual Question Generation with Answer-awareness and Region-reference [107.53380946417003]
本稿では,応答認識と領域参照を用いた視覚的質問生成のための新しい学習パラダイムを提案する。
我々は、追加の人間のアノテーションを導入することなく、視覚的ヒントを自己学習する簡単な手法を開発した。
論文 参考訳(メタデータ) (2024-07-06T15:07:32Z) - Qsnail: A Questionnaire Dataset for Sequential Question Generation [76.616068047362]
質問紙作成作業に特化して構築された最初のデータセットについて述べる。
我々はQsnailの実験を行い、その結果、検索モデルと従来の生成モデルが与えられた研究トピックや意図と完全に一致していないことが明らかとなった。
チェーン・オブ・シークレット・プロンプトと微調整による改善にもかかわらず、言語モデルによるアンケートは、人間の手書きのアンケートには及ばない。
論文 参考訳(メタデータ) (2024-02-22T04:14:10Z) - Failure Artifact Scenarios to Understand High School Students' Growth in
Troubleshooting Physical Computing Projects [0.0]
物理コンピューティングプロジェクトは、学際的な問題解決を理解するためのリッチなコンテキストを提供する。
発見: 学生は、より特定性の高いバグを識別し、ドメインを横断し、バグの複数の原因を考慮し、改善した。
論文 参考訳(メタデータ) (2023-11-28T20:34:09Z) - Automated Distractor and Feedback Generation for Math Multiple-choice
Questions via In-context Learning [43.83422798569986]
マルチチョイス質問(MCQ)は、管理しやすく、格付けし、信頼性の高い評価形式であるため、ほぼ全てのレベルの教育においてユビキタスである。
これまで、高品質なイントラクタを作るというタスクは、教師やコンテンツデザイナーを学ぶための労働集約的なプロセスのままだった。
本稿では,テキスト内学習をベースとした簡易な学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-07T01:03:04Z) - Towards a Holistic Understanding of Mathematical Questions with
Contrastive Pre-training [65.10741459705739]
本稿では,数学的問題表現,すなわち QuesCo に対する対照的な事前学習手法を提案する。
まず、コンテンツレベルと構造レベルを含む2段階の質問強化を設計し、類似した目的で文字通り多様な質問ペアを生成する。
そこで我々は,知識概念の階層的情報を完全に活用するために,知識階層を意識したランク戦略を提案する。
論文 参考訳(メタデータ) (2023-01-18T14:23:29Z) - Successive Prompting for Decomposing Complex Questions [50.00659445976735]
最近の研究は、大規模言語モデル(LM)の機能を活用して、数ショットで複雑な質問応答を行う。
そこでは、複雑なタスクを単純なタスクに繰り返し分解し、それを解決し、最終解を得るまでプロセスを繰り返します。
我々の最良のモデル(逐次プロンプト付き)は、DROPデータセットの数ショットバージョンにおいて、5%の絶対F1の改善を実現します。
論文 参考訳(メタデータ) (2022-12-08T06:03:38Z) - Automatic Generation of Socratic Subquestions for Teaching Math Word
Problems [16.97827669744673]
本稿では,大言語モデル (LM) が数学用語の問題解決を導くためのシーケンシャルな質問を生成する能力について検討する。
自動品質評価と人的品質評価の両方において,所望の質問特性に制約されたLMが優れた質問を生成することがわかった。
その結果,課題の難易度は,質問が人間のパフォーマンスを損なうか否かを判断する上で重要な役割を担っていることが示唆された。
論文 参考訳(メタデータ) (2022-11-23T10:40:22Z) - Steps Before Syntax: Helping Novice Programmers Solve Problems using the
PCDIT Framework [2.768397481213625]
初心者プログラマは、直面する高い認知的負荷のために、しばしば問題解決に苦労します。
多くの入門プログラミングコースは、その途中で問題解決スキルが取得されるという前提で、それを明示的に教えていない。
問題仕様を命令型プログラミング言語のための実装およびテストされたソリューションに変換するプロセスを通じて、初心者プログラマを誘導するための足場を提供する非線形問題解決フレームワークである 'PCDIT' を提案する。
論文 参考訳(メタデータ) (2021-09-18T10:31:15Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。