論文の概要: Who Introduces and Who Fixes? Analyzing Code Quality in Collaborative Student's Projects
- arxiv url: http://arxiv.org/abs/2505.14315v1
- Date: Tue, 20 May 2025 13:02:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.238841
- Title: Who Introduces and Who Fixes? Analyzing Code Quality in Collaborative Student's Projects
- Title(参考訳): 誰が導入し、誰が修正するか : 協力的学生のプロジェクトにおけるコード品質の分析
- Authors: Rafael Corsi Ferrao, Igor dos Santos Montagner, Rodolfo Azevedo,
- Abstract要約: 本稿では,組込みシステムコース内のグループプロジェクトにおいて,エラーがどのように導入され,修正されるかを検討する。
学生はCと組み込みシステムのコード品質ルールを学ぶ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates code quality education by analyzing how errors are introduced and corrected in group projects within an embedded systems course. We identify who introduces errors, who fixes them, and when these actions occur. Students learn code quality rules for C and embedded systems. We address three questions: RQ1: What is the impact of group formation on code quality? RQ2: How do students interact to fix code issues? RQ3: When are issues introduced and resolved? We analyzed data from eight individual labs and two group projects involving 34 students. The course provides continuous, automated feedback on code quality. Findings show that the most active contributors often introduce the most issues. Many issues are fixed late in the project. Individual labs tend to have fewer issues due to their structured nature. Most problems are fixed by the original author, while cross-student fixes take longer, especially in shared code. Critical issues are fixed quickly, but non-critical ones may be ignored, showing a focus on functionality over quality.
- Abstract(参考訳): 本稿では,組込みシステムコース内のグループプロジェクトにおいて,エラーがどのように導入され,修正されるかを分析することによって,コード品質教育について検討する。
誰がエラーを導入し、誰が修正し、いつこれらのアクションが発生するかを特定します。
学生はCと組み込みシステムのコード品質ルールを学ぶ。
RQ1: グループ形成がコード品質に与える影響は?
RQ2: 学生はどのようにしてコードの問題を修正しますか?
RQ3: 問題はいつ導入され、解決されますか?
我々は、34名の学生を対象とする8つの実験室と2つのグループプロジェクトからのデータを分析した。
このコースは、コード品質に関する継続的かつ自動化されたフィードバックを提供する。
発見によると、最も活発なコントリビュータは、多くの場合、最も多くの問題を導入している。
プロジェクトの後半で多くの問題が修正されます。
個々の研究室は、構造的な性質のため、より少ない問題を抱える傾向がある。
ほとんどの問題はオリジナルの著者によって修正されるが、学生間の修正は特に共有コードでは時間がかかる。
クリティカルな問題はすぐに修正されるが、非クリティカルなものは無視され、品質よりも機能を重視している。
関連論文リスト
- CPRet: A Dataset, Benchmark, and Model for Retrieval in Competitive Programming [56.17331530444765]
CPRetは、競合プログラミングのための検索指向ベンチマークスイートである。
2つのコード中心タスク(Text-to-CodeとCode-to-Code)と、新たに提案された2つの問題中心タスク(Issue-to-DuplicateとSimplified-to-Full)である。
私たちのコントリビューションには、高品質なトレーニングデータと、信頼性評価のための時間的に分離されたテストセットの両方が含まれています。
論文 参考訳(メタデータ) (2025-05-19T10:07:51Z) - BugSpotter: Automated Generation of Code Debugging Exercises [22.204802715829615]
本稿では,問題記述からバグコードを生成するツールであるBugSpotterを紹介する。
学生は失敗するテストケースを設計することでBugSpotterと対話する。
論文 参考訳(メタデータ) (2024-11-21T16:56:33Z) - Investigating Student Reasoning in Method-Level Code Refactoring: A Think-Aloud Study [0.7120027021375674]
コードとコード品質は、ソフトウェア工学教育における中核的なトピックである。
学生は、しばしば持続的な品質問題のあるコードを生成する。
学生は大抵の場合、コード品質の問題を取り除くことができた。
論文 参考訳(メタデータ) (2024-10-28T09:50:16Z) - Stepwise Verification and Remediation of Student Reasoning Errors with Large Language Model Tutors [78.53699244846285]
大規模言語モデル(LLM)は、高品質なパーソナライズされた教育を全員に拡大する機会を提供する。
LLMは、学生のエラーを正確に検知し、これらのエラーに対するフィードバックを調整するのに苦労する。
教師が学生の誤りを識別し、それに基づいて回答をカスタマイズする現実世界の教育実践に触発され、我々は学生ソリューションの検証に焦点をあてる。
論文 参考訳(メタデータ) (2024-07-12T10:11:40Z) - What's Wrong with Your Code Generated by Large Language Models? An Extensive Study [80.18342600996601]
大規模言語モデル(LLM)は、標準解に比べて短いがより複雑なコードを生成する。
3つのカテゴリと12のサブカテゴリを含む誤ったコードに対するバグの分類を開発し、一般的なバグタイプに対する根本原因を分析する。
そこで本研究では,LLMがバグタイプやコンパイラフィードバックに基づいて生成したコードを批判し,修正することのできる,自己批判を導入した新たな学習自由反復手法を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:27:17Z) - A Knowledge-Component-Based Methodology for Evaluating AI Assistants [9.412070852474313]
GPT-4をベースとしたCS1プログラム代入のためのヒント自動生成システムの評価を行った。
本システムは,学生が短時間のプログラミング演習において,誤った解法をいかに改善できるか,という自然言語指導を提供する。
論文 参考訳(メタデータ) (2024-06-09T00:58:39Z) - Software issues report for bug fixing process: An empirical study of
machine-learning libraries [0.0]
6つの機械学習ライブラリにおけるバグ修正プロセスにおける課題解決の有効性について検討した。
マシンラーニングライブラリで最も一般的な問題カテゴリは、バグ、ドキュメント、最適化、クラッシュ、拡張、新機能要求、ビルド/CI、サポート、パフォーマンスである。
本研究は,効率的な課題追跡プロセス,効果的なコミュニケーション,コラボレーションが,機械学習ライブラリの課題解決やバグ修正プロセスの効果的な解決に不可欠である,と結論付けている。
論文 参考訳(メタデータ) (2023-12-10T21:33:19Z) - Automated Distractor and Feedback Generation for Math Multiple-choice
Questions via In-context Learning [43.83422798569986]
マルチチョイス質問(MCQ)は、管理しやすく、格付けし、信頼性の高い評価形式であるため、ほぼ全てのレベルの教育においてユビキタスである。
これまで、高品質なイントラクタを作るというタスクは、教師やコンテンツデザイナーを学ぶための労働集約的なプロセスのままだった。
本稿では,テキスト内学習をベースとした簡易な学習手法を提案する。
論文 参考訳(メタデータ) (2023-08-07T01:03:04Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - The Influence of Domain-Based Preprocessing on Subject-Specific
Clustering [55.41644538483948]
大学におけるオンライン教育の大部分を突然移行させることで、学者の作業負荷が増大した。
この問題に対処するひとつの方法は、トピックに応じてこれらの質問をクラスタ化することです。
本稿では,タグ付けデータセットの領域を探求し,コードの抜粋の同定と経験的結果の提供に焦点をあてる。
論文 参考訳(メタデータ) (2020-11-16T17:47:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。