論文の概要: Can Automated Feedback Turn Students into Happy Prologians?
- arxiv url: http://arxiv.org/abs/2504.16742v2
- Date: Wed, 13 Aug 2025 17:35:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 16:17:42.381255
- Title: Can Automated Feedback Turn Students into Happy Prologians?
- Title(参考訳): フィードバックの自動化は、学生を幸せなプロロジアンに変えるか?
- Authors: Ricardo Brancas, Pedro Orvalho, Carolina Carreira, Vasco Manquinho, Ruben Martins,
- Abstract要約: 学生はすべてのフィードバックタイプが役に立ち、自動テストが最も役に立ちます。
バグタイプとそれに対応する修正をラベル付けした200のアノテートプログラムとともに、7201の正確で不正なPrologサブミッションからなるデータセットを紹介した。
- 参考スコア(独自算出の注目度): 0.9087641068861047
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Providing valuable and personalized feedback is essential for effective learning, but delivering it promptly can be challenging in large-scale courses. Recent research has explored automated feedback mechanisms across various programming languages and paradigms, including logic programming. In this work, we present a student survey were we evaluate the perceived usefulness of different feedback types and identified which are most valued. Our results indicate that students found all implemented feedback types helpful, with automatic testing ranked as the most useful. We also introduce a dataset comprising 7201 correct and incorrect Prolog submissions, along with 200 manually annotated programs labeled with bug types and corresponding corrections. Finally, we explore student preferences for which types of feedback they would most like to see implemented in the future.
- Abstract(参考訳): 価値がありパーソナライズされたフィードバックを提供することは効果的な学習には不可欠だが、それを素早く提供することは大規模なコースでは難しい。
最近の研究では、論理プログラミングを含む様々なプログラミング言語やパラダイムにまたがる自動フィードバック機構について検討されている。
本研究は, 学生を対象に, フィードバックタイプの違いの知覚的有用性を評価し, もっとも価値の高いものを同定するものである。
以上の結果から, 学生が実施したすべてのフィードバックタイプが有用であり, 自動テストが最も有用であることが示唆された。
また、7201の正誤Prologサブミッションと、バグタイプとそれに対応する修正をラベル付けした200のアノテートプログラムからなるデータセットも導入した。
最後に,将来どのようなフィードバックが実現したいのか,学生の好みについて検討する。
関連論文リスト
- Auto-grader Feedback Utilization and Its Impacts: An Observational Study Across Five Community Colleges [1.1650821883155187]
初歩的なPythonプログラミングコースにおいて,学生のオートグレーターとのインタラクションを分析する。
フィードバックを頻繁にチェックする学生は、プログラミングの課題全体からより高いスコアを得る傾向があります。
この結果から, 自動段階フィードバックの有効性の実証, 利用率の向上, 自動化時代における今後の成果の継続が求められた。
論文 参考訳(メタデータ) (2025-07-17T10:11:59Z) - You're (Not) My Type -- Can LLMs Generate Feedback of Specific Types for Introductory Programming Tasks? [0.4779196219827508]
本稿では,Large Language Models (LLM) を用いたプログラミングタスクに対して,特定のタイプのフィードバックを生成することを目的とする。
既存のフィードバックを見直して、ランダム性、不確実性、変動度などの、生成されたフィードバックの特異性を捉える。
結果は、例えば、フィードバック効果や学習者の情報的ニーズに関する将来のフィードバック研究に影響を及ぼす。
論文 参考訳(メタデータ) (2024-12-04T17:57:39Z) - Generating Feedback-Ladders for Logical Errors in Programming using Large Language Models [2.1485350418225244]
大規模言語モデル(LLM)に基づく手法は,プログラムの代入に対するフィードバック生成において大きな可能性を秘めている。
本稿では、LLMを用いて「フィードバック・ラダー」、すなわち、同じ問題とサブミッションのペアに対する複数のレベルのフィードバックを生成する。
本研究では, 学生, 教育者, 研究者によるユーザスタディにより, 生成したフィードバックラダーの品質を評価する。
論文 参考訳(メタデータ) (2024-05-01T03:52:39Z) - Improving the Validity of Automatically Generated Feedback via Reinforcement Learning [46.667783153759636]
強化学習(RL)を用いた正当性と整合性の両方を最適化するフィードバック生成フレームワークを提案する。
具体的には、直接選好最適化(DPO)によるトレーニングのための拡張データセットにおいて、GPT-4のアノテーションを使用してフィードバックペアよりも好みを生成する。
論文 参考訳(メタデータ) (2024-03-02T20:25:50Z) - Students' Perceptions and Preferences of Generative Artificial
Intelligence Feedback for Programming [15.372316943507506]
そこで我々はChatGPT APIを用いて,導入型コンピュータサイエンスクラスにおける4つの実験室割り当てのための自動フィードバックを生成した。
学生は、フィードバックは、Shuteが確立した形式的なフィードバックガイドラインとよく一致していると感じた。
学生は通常、十分なコード例で特定の修正フィードバックを期待していたが、フィードバックのトーンについて意見が分かれていた。
論文 参考訳(メタデータ) (2023-12-17T22:26:53Z) - UltraFeedback: Boosting Language Models with Scaled AI Feedback [99.4633351133207]
大規模で高品質で多様なAIフィードバックデータセットである textscUltraFeedback を提示する。
我々の研究は、強力なオープンソースのチャット言語モデルを構築する上で、スケールしたAIフィードバックデータの有効性を検証する。
論文 参考訳(メタデータ) (2023-10-02T17:40:01Z) - System-Level Natural Language Feedback [83.24259100437965]
システムレベルの設計決定を人為的なループプロセスで形式化する上で,フィードバックの活用方法を示す。
検索クエリと対話応答生成を改善するために,本手法のケーススタディを2つ実施する。
システムレベルのフィードバックとインスタンスレベルのフィードバックの組み合わせは、さらなる利益をもたらします。
論文 参考訳(メタデータ) (2023-06-23T16:21:40Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - Giving Feedback on Interactive Student Programs with Meta-Exploration [74.5597783609281]
ウェブサイトやゲームのようなインタラクティブなソフトウェアを開発することは、特にコンピュータ科学を学ぶための魅力的な方法である。
標準的アプローチでは、インストラクターは、学生が実装した対話型プログラムを手動で評価する必要がある。
Code.orgのような何百万ものオンラインプラットフォームは、インタラクティブなプログラムを実装するための代入に関するフィードバックを提供することができない。
論文 参考訳(メタデータ) (2022-11-16T10:00:23Z) - Simulating Bandit Learning from User Feedback for Extractive Question
Answering [51.97943858898579]
教師付きデータを用いたフィードバックのシミュレーションにより,ユーザフィードバックからの学習を抽出的質問応答に適用する。
当初は少数の例でトレーニングしたシステムが,モデル予測された回答に対するユーザからのフィードバックを劇的に改善できることが示される。
論文 参考訳(メタデータ) (2022-03-18T17:47:58Z) - Feedback and Engagement on an Introductory Programming Module [0.0]
自動フィードバックを生成するタスクを含むオンライン学習環境を利用した1年目のプログラミングモジュールにおいて,エンゲージメントと達成度について調査を行った。
エンゲージメントと達成度に関する定量的データを収集し、コホートを6つのグループに分割しました。
その後、モジュールの終了後、学生にインタビューを行い、フィードバックが何であるか、どのくらい有用か、その使用方法、エンゲージメントにどう耐えられるか、といった、質的なデータを生成しました。
論文 参考訳(メタデータ) (2022-01-04T16:53:09Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Effects of Human vs. Automatic Feedback on Students' Understanding of AI
Concepts and Programming Style [0.0]
自動階調ツールの使用は、大規模な学部プログラミングコースにおいてほぼどこでも行われている。
コンピュータによるフィードバックと人間によるフィードバックを受け取った場合、生徒の成果を直接比較するデータは比較的不足している。
本稿では,90名の生徒を2つのフィードバックグループに分割し,2つのコホートのパフォーマンスの違いを分析することで,このギャップを解消する。
論文 参考訳(メタデータ) (2020-11-20T21:40:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。