論文の概要: Systematic Review of Approaches to Improve Peer Assessment at Scale
- arxiv url: http://arxiv.org/abs/2001.10617v1
- Date: Mon, 27 Jan 2020 15:59:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 07:31:32.587824
- Title: Systematic Review of Approaches to Improve Peer Assessment at Scale
- Title(参考訳): 大規模ピアアセスメント改善へのアプローチの体系的レビュー
- Authors: Manikandan Ravikiran
- Abstract要約: 本稿では, ピアアセスメント(PA)の3つの側面, オートグレーティングとピアアセスメントツール(ピアレビュー/オートグレーティングの実施方法のみに注目します), ローグレビューを扱う戦略, 自然言語処理によるピアレビューの改善について述べる。
- 参考スコア(独自算出の注目度): 5.067828201066184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Peer Assessment is a task of analysis and commenting on student's writing by
peers, is core of all educational components both in campus and in MOOC's.
However, with the sheer scale of MOOC's & its inherent personalised open ended
learning, automatic grading and tools assisting grading at scale is highly
important. Previously we presented survey on tasks of post classification,
knowledge tracing and ended with brief review on Peer Assessment (PA), with
some initial problems. In this review we shall continue review on PA from
perspective of improving the review process itself. As such rest of this review
focus on three facets of PA namely Auto grading and Peer Assessment Tools (we
shall look only on how peer reviews/auto-grading is carried), strategies to
handle Rogue Reviews, Peer Review Improvement using Natural Language
Processing. The consolidated set of papers and resources so used are released
in https://github.com/manikandan-ravikiran/cs6460-Survey-2.
- Abstract(参考訳): ピアアセスメント(英: Peer Assessment)は、学生による著作の分析とコメントのタスクであり、キャンパスとMOOCの双方において、すべての教育コンポーネントの中核である。
しかし、moocの膨大なスケールとその固有のパーソナライズされたオープンエンド学習では、大規模で成績付けを支援する自動段階付けとツールが非常に重要である。
従来,分類,知識追跡のタスクに関する調査を行ない,初期問題のあるピアアセスメント(PA)の簡単なレビューを行った。
このレビューでは、レビュープロセス自体の改善の観点から、PAについてレビューを続けます。
このレビューの残りはpaの3つの側面に焦点を当てている:自動採点とピア評価ツール(ピアレビュー/自動採点の実施方法のみに注目する)、不正なレビューを扱う戦略、自然言語処理を用いたピアレビューの改善。
使用するドキュメントとリソースの統合セットはhttps://github.com/manikandan-ravikiran/cs6460-Survey-2で公開されている。
関連論文リスト
- GLIMPSE: Pragmatically Informative Multi-Document Summarization for Scholarly Reviews [25.291384842659397]
本稿では,学術レビューの簡潔かつ包括的概要を提供するための要約手法であるsysを紹介する。
従来のコンセンサスに基づく手法とは異なり、sysは共通の意見とユニークな意見の両方をレビューから抽出する。
論文 参考訳(メタデータ) (2024-06-11T15:27:01Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - OpinSummEval: Revisiting Automated Evaluation for Opinion Summarization [52.720711541731205]
人間の判断と14の意見要約モデルからの出力からなるデータセットであるOpinSummEvalを提案する。
以上の結果から,ニューラルネットワークに基づく測定値が神経以外の測定値を上回っていることが示唆された。
論文 参考訳(メタデータ) (2023-10-27T13:09:54Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Integrating Rankings into Quantized Scores in Peer Review [61.27794774537103]
ピアレビューでは、レビュアーは通常、論文のスコアを提供するように求められます。
この問題を軽減するため、カンファレンスはレビュアーにレビューした論文のランキングを付加するように求め始めている。
このランキング情報を使用するための標準的な手順はなく、エリアチェアは異なる方法でそれを使用することができる。
我々は、ランキング情報をスコアに組み込むために、原則化されたアプローチを取る。
論文 参考訳(メタデータ) (2022-04-05T19:39:13Z) - Ranking Scientific Papers Using Preference Learning [48.78161994501516]
我々はこれをピアレビューテキストとレビュアースコアに基づく論文ランキング問題とみなした。
ピアレビューに基づいて最終決定を行うための,新しい多面的総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-02T19:41:47Z) - Polarity in the Classroom: A Case Study Leveraging Peer Sentiment Toward
Scalable Assessment [4.588028371034406]
大規模なまたは大規模なオープンオンラインコース(MOOC)における、正確な段階的なオープンエンドの割り当ては、簡単ではない。
本稿では、ドメイン依存のレキシコンとアスペクトインフォーム化されたレビューフォームを作成するプロセスについて詳述する。
有効性を分析し、9コースから6800以上のピアレビューのコーパスから結論を議論する。
論文 参考訳(メタデータ) (2021-08-02T15:45:11Z) - Linking open-source code commits and MOOC grades to evaluate massive
online open peer review [0.0]
GitHub上の公開コードリポジトリのデータと、大規模な大規模オンラインオープンコースのコースグレードをリンクして、大規模なピアレビューのダイナミクスを研究します。
3つの異なるピアレビューのサブミットを見つけ、これらを使用して、コードサブミットの変更に応じてグレードがどのように変化するかを調べます。
我々の調査は、大規模なピアレビュースコアが非常に変動し、平均的に、繰り返しの投稿で増加し、スコアの変化は、再レビューの基盤となるコード変更と密接な関係がない、という重要な観察につながります。
論文 参考訳(メタデータ) (2021-04-15T18:27:01Z) - Hierarchical Bi-Directional Self-Attention Networks for Paper Review
Rating Recommendation [81.55533657694016]
本稿では,階層型双方向自己注意ネットワークフレームワーク(HabNet)を提案する。
具体的には、文エンコーダ(レベル1)、レビュー内エンコーダ(レベル2)、レビュー間エンコーダ(レベル3)の3つのレベルで、論文レビューの階層構造を利用する。
我々は、最終的な受理決定を行う上で有用な予測者を特定することができ、また、数値的なレビュー評価とレビュアーが伝えるテキストの感情の不整合を発見するのに役立てることができる。
論文 参考訳(メタデータ) (2020-11-02T08:07:50Z) - Leveraging Peer Feedback to Improve Visualization Education [4.679788938455095]
コンピュータ科学の可視化コースにおけるピアレビューの構築と適用について論じる。
大学生と大学院の混成科目3学年を対象に, 学生プロジェクト, ピアレビューテキスト, ポストコース質問紙の評価を行った。
論文 参考訳(メタデータ) (2020-01-12T21:46:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。