論文の概要: Code Interviews: Design and Evaluation of a More Authentic Assessment for Introductory Programming Assignments
- arxiv url: http://arxiv.org/abs/2410.01010v2
- Date: Mon, 18 Nov 2024 06:52:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:30:18.958004
- Title: Code Interviews: Design and Evaluation of a More Authentic Assessment for Introductory Programming Assignments
- Title(参考訳): コードインタビュー: 入門プログラミングのアサインメントに対するより厳密な評価の設計と評価
- Authors: Suhas Kannam, Yuri Yang, Aarya Dharm, Kevin Lin,
- Abstract要約: 本稿では,家庭内プログラミングの課題に対する,より正確な評価手法であるコードインタビューについて述べる。
コードインタビューは、学生に自分の仕事について議論するよう促し、よりニュアンスな、時には反復的な洞察を動機づけた。
我々は、学生体験、学術的整合性、作業負荷の教育など、コードインタビューの設計に関するさまざまな決定について論じる。
- 参考スコア(独自算出の注目度): 15.295438618760164
- License:
- Abstract: Generative artificial intelligence poses new challenges around assessment, increasingly driving introductory programming educators to employ invigilated exams. But exams do not afford more authentic programming experiences that involve planning, implementing, and debugging programs with computer interaction. In this experience report, we describe code interviews: a more authentic assessment method for take-home programming assignments. Through action research, we experimented with varying the number and type of questions as well as whether interviews were conducted individually or with groups of students. To scale the program, we converted most of our weekly teaching assistant (TA) sections to conduct code interviews on 5 major weekly take-home programming assignments. By triangulating data from 5 sources, we identified 4 themes. Code interviews (1) pushed students to discuss their work, motivating more nuanced but sometimes repetitive insights; (2) enabled peer learning, reducing stress in some ways but increasing stress in other ways; (3) scaled with TA-led sections, replacing familiar practice with an unfamiliar assessment; (4) focused on student contributions, limiting opportunities for TAs to give guidance and feedback. We conclude by discussing the different decisions about the design of code interviews with implications for student experience, academic integrity, and teaching workload.
- Abstract(参考訳): 生成的人工知能(Generative AI)は、評価に関する新たな課題を提起する。
しかし、試験では、コンピュータインタラクションを備えたプログラムを計画し、実装し、デバッグする、より正確なプログラミング経験は得られない。
本経験報告では,家庭内プログラミングの課題に対する,より正確な評価手法であるコードインタビューについて述べる。
行動研究を通じて,質問数や質問の種類,インタビューが個別に行われたか,あるいは学生のグループによって行われたのかを実験した。
プログラムの規模を拡大するために、毎週の授業アシスタント(TA)セクションの大半を変換し、5つの主要な在宅プログラミング課題に関するコードインタビューを実施しました。
5つの情報源からのデータを三角測量して4つのテーマを特定した。
コードインタヴューでは,(1)学生に作業の議論を促し,よりニュアンスな,時には繰り返しの洞察を動機付けること,(2)ピアラーニングを可能とし,ある意味でストレスを減らし,他の方法でストレスを増すこと,(3)慣れ親しんだ実践を慣れ親しんだ評価に置き換えること,(4)学生のコントリビューションを重視し,TAが指導やフィードバックを行う機会を制限すること,などが示唆された。
我々は、学生体験、学術的整合性、作業負荷の教育など、コードインタビューの設計に関するさまざまな決定について論じる。
関連論文リスト
- Integrating Natural Language Prompting Tasks in Introductory Programming Courses [3.907735250728617]
本報告では、導入プログラミングコースに2つのプロンプトに焦点を当てたアクティビティを組み込むことについて検討する。
第一に、学生は自然言語のプロンプトを書き、構文上の問題解決を強調することで、計算問題を解く必要がある。
2つ目は、プロンプトとコードの関係を理解するために、提供されたフラグメントに相当するコードを生成するプロンプトを作成することである。
論文 参考訳(メタデータ) (2024-10-04T01:03:25Z) - Evaluating Contextually Personalized Programming Exercises Created with Generative AI [4.046163999707179]
本報告では,GPT-4で作成した文脈別にパーソナライズされたプログラミング演習を含む,選択型プログラミングコースにおけるユーザスタディについて報告する。
その結果, GPT-4で発生する運動の質は概して高かった。
これは、AIが生成するプログラミング問題は、入門プログラミングコースに付加価値があることを示している。
論文 参考訳(メタデータ) (2024-06-11T12:59:52Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - Exploring the Potential of Large Language Models to Generate Formative
Programming Feedback [0.5371337604556311]
計算機教育者や学習者のための大規模言語モデル(LLM)の可能性を探る。
これらの目的を達成するために、我々はChatGPTの入力としてCS1コース内で収集されたデータセットから学生のプログラミングシーケンスを使用した。
その結果,ChatGPTはプログラミングの入門タスクや学生の誤りに対して合理的に機能することがわかった。
しかし、教育者は、初心者向けの誤解を招く情報を含むことができるため、提供されたフィードバックの使い方に関するガイダンスを提供する必要がある。
論文 参考訳(メタデータ) (2023-08-31T15:22:11Z) - LIBERO: Benchmarking Knowledge Transfer for Lifelong Robot Learning [64.55001982176226]
LIBEROは、ロボット操作のための生涯学習の新しいベンチマークである。
宣言的知識、手続き的知識、あるいは両者の混在を効率的に伝達する方法に焦点を当てる。
我々は、無限に多くのタスクを生成できる拡張可能な手続き生成パイプラインを開発した。
論文 参考訳(メタデータ) (2023-06-05T23:32:26Z) - Giving Feedback on Interactive Student Programs with Meta-Exploration [74.5597783609281]
ウェブサイトやゲームのようなインタラクティブなソフトウェアを開発することは、特にコンピュータ科学を学ぶための魅力的な方法である。
標準的アプローチでは、インストラクターは、学生が実装した対話型プログラムを手動で評価する必要がある。
Code.orgのような何百万ものオンラインプラットフォームは、インタラクティブなプログラムを実装するための代入に関するフィードバックを提供することができない。
論文 参考訳(メタデータ) (2022-11-16T10:00:23Z) - What should I Ask: A Knowledge-driven Approach for Follow-up Questions
Generation in Conversational Surveys [63.51903260461746]
対話型調査における知識駆動型フォローアップ質問生成のための新しい課題を提案する。
そこで我々は,対話履歴とラベル付き知識を用いた人手によるフォローアップ質問の新しいデータセットを構築した。
次に,その課題に対する2段階の知識駆動モデルを提案する。
論文 参考訳(メタデータ) (2022-05-23T00:57:33Z) - CodeReviewer: Pre-Training for Automating Code Review Activities [36.40557768557425]
本研究は,コードレビューシナリオにおけるタスクの事前学習技術を活用することに焦点を当てる。
私たちは、最も人気のある9つのプログラミング言語で、オープンソースのプロジェクトから、現実世界のコード変更とコードレビューの大規模なデータセットを収集します。
コード差分とレビューをよりよく理解するために、コードレビューセナリオに特化した4つの事前トレーニングタスクを利用する事前トレーニングモデルであるCodeReviewerを提案する。
論文 参考訳(メタデータ) (2022-03-17T05:40:13Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Knowledge-driven Data Construction for Zero-shot Evaluation in
Commonsense Question Answering [80.60605604261416]
本稿では,共通認識課題にまたがるゼロショット質問応答のための新しいニューラルシンボリック・フレームワークを提案する。
言語モデル、トレーニング体制、知識ソース、データ生成戦略のセットを変えて、タスク間の影響を測定します。
個別の知識グラフは特定のタスクに適しているが、グローバルな知識グラフはさまざまなタスクに対して一貫した利得をもたらす。
論文 参考訳(メタデータ) (2020-11-07T22:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。