論文の概要: Experience Report: Standards-Based Grading at Scale in Algorithms
- arxiv url: http://arxiv.org/abs/2204.12046v1
- Date: Tue, 26 Apr 2022 02:52:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:28:27.392004
- Title: Experience Report: Standards-Based Grading at Scale in Algorithms
- Title(参考訳): Experience Report: アルゴリズムのスケールにおける標準ベースグラディング
- Authors: Lijun Chen, Joshua A. Grochow, Ryan Layer, Michael Levet
- Abstract要約: このコースには200-400人の生徒がおり、2人の講師と8人の大学院教官が教え、さらに2人の大学院生と2人の学部生が支援した。
新型コロナウイルス(COVID-19)パンデミックにおいて、学生を支援する上での標準ベースの格付けの役割を強調します。
- 参考スコア(独自算出の注目度): 2.093287944284448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We report our experiences implementing standards-based grading at scale in an
Algorithms course, which serves as the terminal required CS Theory course in
our department's undergraduate curriculum. The course had 200-400 students,
taught by two instructors, eight graduate teaching assistants, and supported by
two additional graders and several undergraduate course assistants. We
highlight the role of standards-based grading in supporting our students during
the COVID-19 pandemic. We conclude by detailing the successes and adjustments
we would make to the course structure.
- Abstract(参考訳): 本科の学部課程では,CS理論科の終末となるアルゴリズム科目において,大規模に標準ベースグレーディングを実践した経験を報告する。
このコースには200-400人の生徒がおり、2人の講師と8人の大学院教官が教え、さらに2人の大学院生と2人の学部生が支援した。
我々は、新型コロナウイルス(covid-19)パンデミックにおける学生支援における標準ベースの格付けの役割を強調する。
最後に、コース構造に対して行うべき成功と調整を詳述する。
関連論文リスト
- Grade Like a Human: Rethinking Automated Assessment with Large Language Models [11.442433408767583]
大規模言語モデル(LLM)は自動階調に使われてきたが、人間と同等のパフォーマンスを達成できていない。
本稿では,次のキーコンポーネントを含むすべてのグルーピング手順に対処するLLMに基づくグルーピングシステムを提案する。
論文 参考訳(メタデータ) (2024-05-30T05:08:15Z) - Class Gradient Projection For Continual Learning [99.105266615448]
破滅的な忘れは継続的学習(CL)における最も重要な課題の1つです。
タスクではなく個々のクラスから勾配部分空間を計算するクラスグラディエント・プロジェクション(CGP)を提案する。
論文 参考訳(メタデータ) (2023-11-25T02:45:56Z) - TBGC: Task-level Backbone-Oriented Gradient Clip for Multi-Task
Foundation Model Learning [0.0]
タスクレベルのバックボーン指向の勾配クリップパラダイムを,バニラ勾配クリップ法と比較して提案する。
実験結果から,タスクレベルのバックボーン指向の勾配クリップパラダイムは,勾配バイアス問題をある程度緩和できると主張している。
CVPR2023 Foundation Model ChallengeのLeadardboard Aと2位で1位を獲得しました。
論文 参考訳(メタデータ) (2023-07-07T08:57:57Z) - Low-complexity deep learning frameworks for acoustic scene
classification using teacher-student scheme and multiple spectrograms [59.86658316440461]
提案システムは,教師のネットワークを訓練する(Phase I)と,教師の知識を蒸留して学生のネットワークを訓練する(Phase II)の2つの段階から構成される。
DCASE 2023 Task 1 Developmentデータセットで実施した実験は,低複雑さの要求を満たすとともに,57.4%の最高の分類精度を達成した。
論文 参考訳(メタデータ) (2023-05-16T14:21:45Z) - Learning What Not to Segment: A New Perspective on Few-Shot Segmentation [63.910211095033596]
近年では、FSS ( few-shot segmentation) が広く開発されている。
本稿では,問題を緩和するための新鮮で直接的な知見を提案する。
提案されたアプローチのユニークな性質を踏まえて、より現実的で挑戦的な設定にまで拡張する。
論文 参考訳(メタデータ) (2022-03-15T03:08:27Z) - Course Difficulty Estimation Based on Mapping of Bloom's Taxonomy and
ABET Criteria [0.0]
コースの難易度を推定する手法を提案する。
評価難易度は,学生の学歴に基づいて評価される。
論文 参考訳(メタデータ) (2021-11-16T12:53:21Z) - Generalized and Incremental Few-Shot Learning by Explicit Learning and
Calibration without Forgetting [86.56447683502951]
これらの課題を明確かつ効果的に解決できる3段階のフレームワークを提案する。
提案手法を,画像とビデオの断片分類のための4つの挑戦的ベンチマークデータセット上で評価した。
論文 参考訳(メタデータ) (2021-08-18T14:21:43Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - Curriculum Learning: A Survey [65.31516318260759]
カリキュラム学習戦略は、機械学習のあらゆる分野で成功している。
我々は,様々な分類基準を考慮して,カリキュラム学習アプローチの分類を手作業で構築する。
集約型クラスタリングアルゴリズムを用いて,カリキュラム学習手法の階層木を構築する。
論文 参考訳(メタデータ) (2021-01-25T20:08:32Z) - A Berkeley View of Teaching CS at Scale [19.08810272234958]
カリフォルニア大学バークレー校のComputer Scienceプログラムは、卒業生の数が5年で3倍になった。
本報告では,大規模CSコースの効果的な指導,提供,管理を可能にする3つの戦略について述べる。
論文 参考訳(メタデータ) (2020-04-28T17:33:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。