論文の概要: Analysis of Comments Given in Documents Inspection in Software
Development PBL and Investigation of the Impact on Students
- arxiv url: http://arxiv.org/abs/2311.09727v1
- Date: Thu, 16 Nov 2023 09:57:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 15:22:32.414823
- Title: Analysis of Comments Given in Documents Inspection in Software
Development PBL and Investigation of the Impact on Students
- Title(参考訳): ソフトウェア開発pblにおける文書検査におけるコメントの分析と学生への影響の検討
- Authors: Oh Sato and Atsuo Hazeyama
- Abstract要約: 本研究では,ソフトウェア開発において実施される検査を学習フィードバックとみなし,各検査コメントが学生に与える影響を調査する。
著者はFigmaからGitHubへのコメントを収集するツールを開発している。
本研究は,学生が提出した受講後の質問紙調査に基づいて,各評価項目の分類が学生に与える影響について検討した。
- 参考スコア(独自算出の注目度): 0.19036571490366497
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study considers inspection conducted in software development PBL as
learning feedback and investigates the impact of each inspection comment on
students. The authors have already collected most inspection comments for not
only requirements specification but also UML diagrams on GitHub. The authors
develop a tool that collects comments given in Figma to GitHub. We examine the
impact on students of each classification of inspection comments based on the
post-lesson questionnaire submitted by the students. Finally, we present the
benefits that classification of inspection comments can bring to PBL and
discuss automatic comment classification by machine learning enabled by
text-based comments and the concept of software development PBL support
application enabled by automatic classification of inspection comments.
- Abstract(参考訳): 本研究は,ソフトウェア開発PBLにおける検査を学習フィードバックとみなし,各検査コメントが学生に与える影響を考察する。
著者たちはすでに、要求仕様だけでなく、UMLダイアグラムに関するほとんどのインスペクションコメントをGitHubで収集している。
著者らは、FigmaからGitHubへのコメントを収集するツールを開発した。
本研究は,学生が提出した無記名質問紙に基づいて,各検査コメントの分類が学生に与える影響について検討する。
最後に、検査コメントの分類がpblにもたらす利点と、テキストベースのコメントによって実現される機械学習による自動コメント分類と、検査コメントの自動分類によって実現されるソフトウェア開発pbl支援アプリケーションの概念について述べる。
関連論文リスト
- Usefulness of LLMs as an Author Checklist Assistant for Scientific Papers: NeurIPS'24 Experiment [59.09144776166979]
大規模言語モデル(LLM)は、科学的ピアレビューを支援する上で有望だが議論の余地のあるツールである。
本研究は,論文提出を提出基準に適合させるツールとして,会議環境におけるLCMの有用性を評価する。
論文 参考訳(メタデータ) (2024-11-05T18:58:00Z) - Large Language Model as an Assignment Evaluator: Insights, Feedback, and Challenges in a 1000+ Student Course [49.296957552006226]
大規模言語モデル(LLM)を自動評価に用いることは,NLP研究において重要な評価手法となっている。
本報告では,1028人の大学生を対象に,GPT-4を自動課題評価装置として利用する方法について述べる。
論文 参考訳(メタデータ) (2024-07-07T00:17:24Z) - Benchmarks and Metrics for Evaluations of Code Generation: A Critical Review [4.181146104301203]
大言語モデル(LLM)は、自然言語入力からプログラムコードを生成することを含むプログラミングタスクを支援するために開発された。
本稿では、これらのツールのテストおよび評価に関する既存の研究について批判的なレビューを行う。
論文 参考訳(メタデータ) (2024-06-18T14:25:34Z) - Mining patterns in syntax trees to automate code reviews of student solutions for programming exercises [0.0]
本稿では,教育コードレビューにおけるフィードバックの再利用を自動化する機械学習手法ECHOを紹介する。
自動リンティングツールとヒューマンレビュアーの両方のアノテーションに基づいて,ECHOが適切なフィードバックアノテーションを正確かつ迅速に予測できることを示す。
論文 参考訳(メタデータ) (2024-04-26T14:03:19Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Exploring the Advances in Identifying Useful Code Review Comments [0.0]
本稿では,コードレビューコメントの有用性に関する研究の進化を反映する。
コードレビューコメントの有用性を定義し、データセットのマイニングとアノテーションを定義し、開発者の認識を調査し、異なる側面から要因を分析し、機械学習分類器を使用してコードレビューコメントの有用性を自動的に予測する。
論文 参考訳(メタデータ) (2023-07-03T00:41:20Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Annotation and Classification of Evidence and Reasoning Revisions in
Argumentative Writing [0.9449650062296824]
本稿では,エビデンスの使用と推論の文レベルの改訂の性質を捉えるためのアノテーションスキームを提案する。
信頼性のある手書きアノテーションが達成できることを示し,修正アノテーションはエッセイ改善の全体的評価と相関することを示す。
論文 参考訳(メタデータ) (2021-07-14T20:58:26Z) - Code Review in the Classroom [57.300604527924015]
教室設定の若い開発者は、コードレビュープロセスの潜在的に有利で問題のある領域の明確な図を提供している。
彼らのフィードバックは、プロセスはプロセスを改善するためにいくつかのポイントで十分に受け入れられていることを示唆している。
本論文は,教室でコードレビューを行うためのガイドラインとして利用することができる。
論文 参考訳(メタデータ) (2020-04-19T06:07:45Z) - Systematic Review of Approaches to Improve Peer Assessment at Scale [5.067828201066184]
本稿では, ピアアセスメント(PA)の3つの側面, オートグレーティングとピアアセスメントツール(ピアレビュー/オートグレーティングの実施方法のみに注目します), ローグレビューを扱う戦略, 自然言語処理によるピアレビューの改善について述べる。
論文 参考訳(メタデータ) (2020-01-27T15:59:24Z) - ORB: An Open Reading Benchmark for Comprehensive Evaluation of Machine
Reading Comprehension [53.037401638264235]
我々は,7種類の読解データセットの性能を報告する評価サーバORBを提案する。
評価サーバは、モデルのトレーニング方法に制限を課さないため、トレーニングパラダイムや表現学習の探索に適したテストベッドである。
論文 参考訳(メタデータ) (2019-12-29T07:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。