論文の概要: Polarity in the Classroom: A Case Study Leveraging Peer Sentiment Toward
Scalable Assessment
- arxiv url: http://arxiv.org/abs/2108.10068v1
- Date: Mon, 2 Aug 2021 15:45:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-29 15:44:20.127236
- Title: Polarity in the Classroom: A Case Study Leveraging Peer Sentiment Toward
Scalable Assessment
- Title(参考訳): 教室におけるポーラリティ:スケーラブルアセスメントに向けたピアセンティメントを活用した事例研究
- Authors: Zachariah J. Beasley, Les A. Piegl, and Paul Rosen
- Abstract要約: 大規模なまたは大規模なオープンオンラインコース(MOOC)における、正確な段階的なオープンエンドの割り当ては、簡単ではない。
本稿では、ドメイン依存のレキシコンとアスペクトインフォーム化されたレビューフォームを作成するプロセスについて詳述する。
有効性を分析し、9コースから6800以上のピアレビューのコーパスから結論を議論する。
- 参考スコア(独自算出の注目度): 4.588028371034406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurately grading open-ended assignments in large or massive open online
courses (MOOCs) is non-trivial. Peer review is a promising solution but can be
unreliable due to few reviewers and an unevaluated review form. To date, no
work has 1) leveraged sentiment analysis in the peer-review process to inform
or validate grades or 2) utilized aspect extraction to craft a review form from
what students actually communicated. Our work utilizes, rather than discards,
student data from review form comments to deliver better information to the
instructor. In this work, we detail the process by which we create our
domain-dependent lexicon and aspect-informed review form as well as our entire
sentiment analysis algorithm which provides a fine-grained sentiment score from
text alone. We end by analyzing validity and discussing conclusions from our
corpus of over 6800 peer reviews from nine courses to understand the viability
of sentiment in the classroom for increasing the information from and
reliability of grading open-ended assignments in large courses.
- Abstract(参考訳): 大規模または大規模オープンオンラインコース(moocs)において、オープンエンドの割り当てを正確に評価することは簡単ではない。
ピアレビューは有望なソリューションだが、少数のレビュアーと無評価レビューフォームのために信頼できない。
これまでのところ,1)ピアレビュープロセスにおいて感情分析を活用して成績を報告・検証したり,2) アスペクト抽出を活用して学生が実際にコミュニケーションした内容からレビューフォームを作成する作業は行われていない。
我々の研究は、学生のデータをレビューフォームのコメントから取り除くのではなく、インストラクターにより良い情報を提供する。
本研究では、ドメイン依存の辞書とアスペクトインフォーム化されたレビューフォームを作成するプロセスと、テキストのみからきめ細かい感情スコアを提供する全感情分析アルゴリズムについて詳述する。
本研究は,9コースから6800名以上の審査員を対象とするコーパスの妥当性の分析と結論の議論を通じて,教室における感情の生存可能性を理解し,多くのコースにおいて公開課題の段階付けの信頼性を高める。
関連論文リスト
- GLIMPSE: Pragmatically Informative Multi-Document Summarization for Scholarly Reviews [25.291384842659397]
本稿では,学術レビューの簡潔かつ包括的概要を提供するための要約手法であるsysを紹介する。
従来のコンセンサスに基づく手法とは異なり、sysは共通の意見とユニークな意見の両方をレビューから抽出する。
論文 参考訳(メタデータ) (2024-06-11T15:27:01Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Learning Opinion Summarizers by Selecting Informative Reviews [81.47506952645564]
31,000以上の製品のユーザレビューと組み合わせた大規模な要約データセットを収集し、教師付きトレーニングを可能にします。
多くのレビューの内容は、人間が書いた要約には反映されず、したがってランダムなレビューサブセットで訓練された要約者は幻覚する。
我々は、これらのサブセットで表現された意見を要約し、レビューの情報的サブセットを選択するための共同学習としてタスクを定式化する。
論文 参考訳(メタデータ) (2021-09-09T15:01:43Z) - Can We Automate Scientific Reviewing? [89.50052670307434]
我々は、最先端自然言語処理(NLP)モデルを用いて、科学論文の第一パスピアレビューを生成する可能性について論じる。
我々は、機械学習領域で論文のデータセットを収集し、各レビューでカバーされているさまざまなコンテンツに注釈を付け、レビューを生成するために論文を取り込み、ターゲットの要約モデルを訓練する。
総合的な実験結果から、システム生成レビューは、人間によるレビューよりも、論文の多くの側面に触れる傾向にあることが示された。
論文 参考訳(メタデータ) (2021-01-30T07:16:53Z) - Are Top School Students More Critical of Their Professors? Mining
Comments on RateMyProfessor.com [83.2634062100579]
RateMyProfessor.comの学生レビューとコメントは、学生の現実的な学習経験を反映している。
本研究は,学生のレビューやコメントに重要な情報が含まれており,授業や大学への入学に欠かせない参考文献として利用できることを実証する。
論文 参考訳(メタデータ) (2021-01-23T20:01:36Z) - Aspect-based Sentiment Analysis of Scientific Reviews [12.472629584751509]
本研究は,受理論文と受理論文ではアスペクトベース感情の分布が著しく異なることを示す。
第2の目的として、論文を閲覧するレビュアーの間での意見の不一致の程度を定量化する。
また, 審査員と議長との意見の不一致の程度について検討し, 審査員間の意見の不一致が議長との意見の不一致と関係があることを見出した。
論文 参考訳(メタデータ) (2020-06-05T07:06:01Z) - A Unified Dual-view Model for Review Summarization and Sentiment
Classification with Inconsistency Loss [51.448615489097236]
ユーザーレビューから正確な要約と感情を取得することは、現代のEコマースプラットフォームにとって不可欠な要素である。
本稿では,これら2つのタスクの性能を協調的に改善する新しいデュアルビューモデルを提案する。
異なる領域の4つの実世界のデータセットに対する実験結果から,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2020-06-02T13:34:11Z) - Topic Detection and Summarization of User Reviews [6.779855791259679]
本稿では,レビューと要約の両方を解析して,効果的な新しい要約手法を提案する。
製品レビューと約1028の製品からなる新しいデータセットが、AmazonとCNETから収集されている。
論文 参考訳(メタデータ) (2020-05-30T02:19:08Z) - How Useful are Reviews for Recommendation? A Critical Review and
Potential Improvements [8.471274313213092]
本稿では,レビューテキストを用いてレコメンデーションシステムの改善を目指す,新たな作業体系について検討する。
実験条件やデータ前処理に変化はあるものの, 論文間で結果がコピーされていることから, 報告結果にいくつかの相違点がみられた。
さらなる調査では、リコメンデーションのためのユーザレビューの"重要"に関して、はるかに大きな問題に関する議論が求められている。
論文 参考訳(メタデータ) (2020-05-25T16:30:05Z) - Code Review in the Classroom [57.300604527924015]
教室設定の若い開発者は、コードレビュープロセスの潜在的に有利で問題のある領域の明確な図を提供している。
彼らのフィードバックは、プロセスはプロセスを改善するためにいくつかのポイントで十分に受け入れられていることを示唆している。
本論文は,教室でコードレビューを行うためのガイドラインとして利用することができる。
論文 参考訳(メタデータ) (2020-04-19T06:07:45Z) - Systematic Review of Approaches to Improve Peer Assessment at Scale [5.067828201066184]
本稿では, ピアアセスメント(PA)の3つの側面, オートグレーティングとピアアセスメントツール(ピアレビュー/オートグレーティングの実施方法のみに注目します), ローグレビューを扱う戦略, 自然言語処理によるピアレビューの改善について述べる。
論文 参考訳(メタデータ) (2020-01-27T15:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。