論文の概要: Effective Feedback for Introductory CS Theory: A JFLAP Extension and
Student Persistence
- arxiv url: http://arxiv.org/abs/2012.01546v1
- Date: Wed, 2 Dec 2020 21:39:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-22 07:39:28.304897
- Title: Effective Feedback for Introductory CS Theory: A JFLAP Extension and
Student Persistence
- Title(参考訳): 導入CS理論の効果的なフィードバック:JFLAP拡張と学生の持続性
- Authors: Ivona Bez\'akov\'a, Kimberly Fluet, Edith Hemaspaandra, Hannah Miller,
David E. Narv\'aez
- Abstract要約: 我々の研究の主な目的は、学生が抽象計算モデルを学ぶのを支援することである。
これらのモデルと対話するための最も一般的な教育ツールがJava Formal Languages and Automata Package (JFLAP)である。
JFLAPサーバ拡張は,学生からの宿題の提出を受け付け,その提出を正しいか間違っているか評価し,提出が正しくない場合に証人文字列を提供する。
- 参考スコア(独自算出の注目度): 4.40401067183266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computing theory analyzes abstract computational models to rigorously study
the computational difficulty of various problems. Introductory computing theory
can be challenging for undergraduate students, and the main goal of our
research is to help students learn these computational models. The most common
pedagogical tool for interacting with these models is the Java Formal Languages
and Automata Package (JFLAP). We developed a JFLAP server extension, which
accepts homework submissions from students, evaluates the submission as correct
or incorrect, and provides a witness string when the submission is incorrect.
Our extension currently provides witness feedback for deterministic finite
automata, nondeterministic finite automata, regular expressions, context-free
grammars, and pushdown automata.
In Fall 2019, we ran a preliminary investigation on two sections (Control and
Study) of the required undergraduate course Introduction to Computer Science
Theory. The Study section used our extension for five targeted homework
questions, and the Control section solved and submitted these problems using
traditional means. Our results show that on these five questions, the Study
section performed better on average than the Control section. Moreover, the
Study section persisted in submitting attempts until correct, and from this
finding, our preliminary conclusion is that minimal (not detailed or
grade-based) witness feedback helps students to truly learn the concepts. We
describe the results that support this conclusion as well as a related
hypothesis conjecturing that with witness feedback and unlimited number of
submissions, partial credit is both unnecessary and ineffective.
- Abstract(参考訳): 計算理論は抽象計算モデルを分析し、様々な問題の計算困難を厳格に研究する。
初等的計算理論は大学生にとって困難であり,本研究の主な目的は,学生がこれらの計算モデルを学ぶのを支援することである。
これらのモデルと対話するための最も一般的な教育ツールがJava Formal Languages and Automata Package (JFLAP)である。
JFLAPサーバ拡張は,学生からの宿題の提出を受け付け,その提出を正しいか間違っているか評価し,提出が正しくない場合に証人文字列を提供する。
我々の拡張は現在、決定論的有限オートマトン、非決定論的有限オートマトン、正規表現、文脈自由文法、プッシュダウンオートマトンに対する目撃者フィードバックを提供している。
2019年秋,我々はコンピュータ科学理論の授業導入に必要な2つの項目(制御と研究)について予備調査を行った。
学習部では5つの課題を対象とし,コントロール部では従来の手法でこれらの問題を解き,提出した。
その結果, この5つの質問において, 調査部は対照部よりも平均で良好であった。
さらに,本研究部は,正解までの試行を継続し,本研究の予備的結論は,最小限の(詳細でない)証人フィードバックが,学生が概念を真に学ぶのに役立つことである。
この結論を裏付ける結果と関連する仮説を述べるとともに、証人のフィードバックと無制限の提出によって、部分クレジットは不要かつ非有効であると仮定する。
関連論文リスト
- Enhancing LLM Reasoning via Critique Models with Test-Time and Training-Time Supervision [120.40788744292739]
本稿では、推論と批判モデルの役割を分離する2人プレイヤパラダイムを提案する。
まず、批判データを収集する自動化およびスケーラブルなフレームワークであるAutoMathCritiqueを提案する。
テスト時間における難解なクエリに対するアクターのパフォーマンスを,批判モデルが一貫して改善することが実証された。
論文 参考訳(メタデータ) (2024-11-25T17:11:54Z) - ReasonAgain: Using Extractable Symbolic Programs to Evaluate Mathematical Reasoning [54.70811660561151]
既存の数学データセットは、最終回答または静的例から派生した中間推論ステップを用いて、大規模言語モデル(LLM)の推論能力を評価する。
モデルがプログラムへの様々な入力に対して常に正しい最終回答を生成できる場合、シンボルプログラムを自動評価の手段として利用したいと考えている。
提案手法は, 従来の静的な例と比較して, 精度の低下を観測し, 現状のLLMにおける数学推論の脆弱さを示唆する。
論文 参考訳(メタデータ) (2024-10-24T18:02:37Z) - Investigating Video Reasoning Capability of Large Language Models with Tropes in Movies [69.28082193942991]
本稿では、これまで見過ごされていた2つの重要なビデオ推論スキルを探索するためのテストベッドとして設計された、新しいデータセットであるTropes in Movies (TiM)を紹介する。
映画ストーリーテリングのトポロジを利用して、TiMは最先端のLCMベースのアプローチの推論能力を評価する。
これらの欠陥に対処するために、FEVoRI(Face-Enhanced Viper of Role Interactions)とConQueR(Context Query Reduction)を提案する。
論文 参考訳(メタデータ) (2024-06-16T12:58:31Z) - The potential of large language models for improving probability
learning: A study on ChatGPT3.5 and first-year computer engineering students [0.565395466029518]
ChatGPTは確率問題を解くための大規模言語モデルである。
ChatGPTは、一般にコンピュータ工学試験で提示される確率問題の解決に使用される。
モデルが高品質な説明を提供し、どんなプログラミング言語でもソリューションを説明する能力は、大きな言語モデルが学習アシスタントとして機能する可能性を示唆している。
論文 参考訳(メタデータ) (2023-10-09T12:54:58Z) - Exploring the Potential of Large Language Models to Generate Formative
Programming Feedback [0.5371337604556311]
計算機教育者や学習者のための大規模言語モデル(LLM)の可能性を探る。
これらの目的を達成するために、我々はChatGPTの入力としてCS1コース内で収集されたデータセットから学生のプログラミングシーケンスを使用した。
その結果,ChatGPTはプログラミングの入門タスクや学生の誤りに対して合理的に機能することがわかった。
しかし、教育者は、初心者向けの誤解を招く情報を含むことができるため、提供されたフィードバックの使い方に関するガイダンスを提供する必要がある。
論文 参考訳(メタデータ) (2023-08-31T15:22:11Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - From Human Days to Machine Seconds: Automatically Answering and
Generating Machine Learning Final Exams [10.25071232250652]
MIT、ハーバード大学、コーネル大学などのトップ機関での機械学習の最終試験は、書くのに何日もかかり、生徒は解決するのに何時間もかかる。
大規模な言語モデルは、トレーニング後のオンラインのファイナルで、人間のレベルで機械学習のファイナルをパスし、新しい品質のファイナル質問を数秒で自動生成することを示した。
論文 参考訳(メタデータ) (2022-06-11T06:38:06Z) - Automatic Short Math Answer Grading via In-context Meta-learning [2.0263791972068628]
本研究では,数学質問に対する児童生徒の回答に対する自動短解格付けの問題について検討する。
我々は、数学的な内容に適応した人気のある言語モデルBERTの変種である MathBERT をベースモデルとして使用しています。
第二に、言語モデルへの入力としてスコアリングサンプルを提供する、コンテキスト内学習アプローチを用いる。
論文 参考訳(メタデータ) (2022-05-30T16:26:02Z) - Textual Explanations and Critiques in Recommendation Systems [8.406549970145846]
論文は、このニーズに対処する2つの根本的な課題に焦点を当てています。
1つ目は、スケーラブルでデータ駆動的な説明生成である。
第2の課題は、説明を実行可能なものにすることだ。
論文 参考訳(メタデータ) (2022-05-15T11:59:23Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。