論文の概要: Reviewers of Educational Immersive and Extended Reality (XR) experiences: Who is creating these reviews and why?
- arxiv url: http://arxiv.org/abs/2407.03650v1
- Date: Thu, 4 Jul 2024 05:45:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-08 19:11:48.463768
- Title: Reviewers of Educational Immersive and Extended Reality (XR) experiences: Who is creating these reviews and why?
- Title(参考訳): 教育的没入感と拡張現実感(XR)体験のレビュアー:このレビューを誰が作成しているのか、なぜなのか?
- Authors: Sophie McKenzie, Shaun Bangay, Maria Nicholas, Adam Cardilini, Majeet Singh,
- Abstract要約: 本稿では,教育用没入型・拡張型現実(eduXR の経験と理由)を誰がレビューしているかを検討するために,スコーピングによる文献のレビューを行う。
eduXRのユーザにとって、経験のレビューは、学習ニーズを満たすかどうかを判断するための情報を提供することができる。
eduXRには確立されたレビューシステムはないが、真剣なゲームレビューには関連性があり、一部には重複があるが、すべてではない。
- 参考スコア(独自算出の注目度): 0.05825410941577592
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper presents a scoping review of literature to examine who is reviewing educational immersive or extended reality - eduXR experiences and why. EduXR experiences in augmented, virtual or mixed reality take many forms, from supporting manual training, engaging learners in conservation, to provide opportunities for social connection. For users of eduXR, reviews of an experience can provide information that helps them determine whether it will meet their learning needs or not. The source of the review, that is, who they are and why they have conducted the review, is critical in helping the user judge the reviews quality and relevance. At present, there is no settled review system in place for eduXR, though relevant frameworks exist for serious games review with relevance and overlap for some, but not all, eduXR experiences. While some authors have engaged in preparing a detailed review structure for eduXR, there remains a need for a clear and simple way for users of eduXR to know details about reviewers, e.g., who and why, to help make it easier for users to identify relevant reviews and gain useful insight about eduXR experiences. To help address this issue, we conducted a scoping review asking the question; Who is creating eduXR reviews, and why? We identified 16 papers that present an academic evaluation on the review process of eduXR reviews. The 16 papers were analysed, coding for who themes and why themes over two separate cycles, using thematic analysis. An analysis looked to examine what we know regarding who is providing the reviews, and why, to help us to understand what enables, inhibits and what is yet unknown about how the eduXR community goes about making informed choices regarding the eduXR experiences they engage with.
- Abstract(参考訳): 本稿では,教育用没入型・拡張型現実(eduXR の経験と理由)を誰がレビューしているかを検討するために,スコーピングによる文献のレビューを行う。
EduXR体験は、手動トレーニングのサポート、学習者の保護への関与、社会的つながりの機会の提供など、拡張現実、仮想、複合現実における多くの形態を取り入れている。
eduXRのユーザにとって、経験のレビューは、学習ニーズを満たすかどうかを判断するための情報を提供することができる。
レビューのソース、すなわち、彼らが何者で、なぜレビューを行ったかは、ユーザーがレビューの品質と妥当性を判断するのを助けるために重要である。
現在、eduXRのレビューシステムは確立されていないが、真剣なゲームレビューのためのフレームワークがいくつかあるが、すべてではない。
一部の著者は、eduXRの詳細なレビュー構造の作成に取り組んできたが、eduXRのユーザがレビュアの詳細を知るための明確でシンプルな方法、例えば、誰が、なぜ、ユーザーが関連するレビューを識別し、eduXRの経験について有益な洞察を得るのに役立つか、などが必要である。
この問題に対処するために、私たちは、EduXRレビューを作成するのは誰なのか、なぜなのか、という質問に対して、スクーピングレビューを実施しました。
我々は,eduXRレビューのレビュープロセスに関する学術的評価を示す16の論文を同定した。
16の論文は、テーマ分析を用いて、どのテーマとなぜ2つの異なるサイクルにまたがるのかをコーディングして分析された。
分析では、誰がレビューを提供しているか、なぜ、eduXRコミュニティがどのようにして、彼らが関わったeduXR体験に関する情報的選択を行うかについて、何が可能であるか、何が抑制されているのか、まだ不明なのかを理解するのに役立ちます。
関連論文リスト
- Review Ecosystems to access Educational XR Experiences: a Scoping Review [0.4177651846674218]
本稿では,新たなレビューエコシステムを構築するためのベストプラクティスを明らかにする。
これは、これらのレビューの形式と形式、および経験に関する情報を共有するメカニズムに焦点を当てている。
教育用XR(eduXR)レビューエコシステムを開発するための戦略と機会には、品質指標などの特性を測定する方法が含まれる。
論文 参考訳(メタデータ) (2024-03-25T22:44:28Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Large Scale Analysis of Open MOOC Reviews to Support Learners' Course
Selection [17.376856503445826]
5つのプラットフォームから4400万レビュー(これまでで最大のMOOCレビューデータセット)を分析します。
その結果、数値格付けは明らかに偏っている(そのうち63%が5つ星格付けである)。
われわれの研究は、この領域に光を当て、オンライン教育のレビューにおいてより透明なアプローチを促進することを期待している。
論文 参考訳(メタデータ) (2022-01-11T10:24:49Z) - Polarity in the Classroom: A Case Study Leveraging Peer Sentiment Toward
Scalable Assessment [4.588028371034406]
大規模なまたは大規模なオープンオンラインコース(MOOC)における、正確な段階的なオープンエンドの割り当ては、簡単ではない。
本稿では、ドメイン依存のレキシコンとアスペクトインフォーム化されたレビューフォームを作成するプロセスについて詳述する。
有効性を分析し、9コースから6800以上のピアレビューのコーパスから結論を議論する。
論文 参考訳(メタデータ) (2021-08-02T15:45:11Z) - Can We Automate Scientific Reviewing? [89.50052670307434]
我々は、最先端自然言語処理(NLP)モデルを用いて、科学論文の第一パスピアレビューを生成する可能性について論じる。
我々は、機械学習領域で論文のデータセットを収集し、各レビューでカバーされているさまざまなコンテンツに注釈を付け、レビューを生成するために論文を取り込み、ターゲットの要約モデルを訓練する。
総合的な実験結果から、システム生成レビューは、人間によるレビューよりも、論文の多くの側面に触れる傾向にあることが示された。
論文 参考訳(メタデータ) (2021-01-30T07:16:53Z) - Are Top School Students More Critical of Their Professors? Mining
Comments on RateMyProfessor.com [83.2634062100579]
RateMyProfessor.comの学生レビューとコメントは、学生の現実的な学習経験を反映している。
本研究は,学生のレビューやコメントに重要な情報が含まれており,授業や大学への入学に欠かせない参考文献として利用できることを実証する。
論文 参考訳(メタデータ) (2021-01-23T20:01:36Z) - ReviewRobot: Explainable Paper Review Generation based on Knowledge
Synthesis [62.76038841302741]
レビュースコアを自動的に割り当てて,新規性や意味のある比較など,複数のカテゴリのコメントを書くための,新しいReviewRobotを構築した。
実験の結果,レビュースコア予測器の精度は71.4%-100%であった。
ドメインの専門家による人間による評価は、ReviewRobotが生成したコメントの41.7%-70.5%が有効で建設的であり、その20%は人間が書いたものよりも優れていることを示している。
論文 参考訳(メタデータ) (2020-10-13T02:17:58Z) - Aspect-based Sentiment Analysis of Scientific Reviews [12.472629584751509]
本研究は,受理論文と受理論文ではアスペクトベース感情の分布が著しく異なることを示す。
第2の目的として、論文を閲覧するレビュアーの間での意見の不一致の程度を定量化する。
また, 審査員と議長との意見の不一致の程度について検討し, 審査員間の意見の不一致が議長との意見の不一致と関係があることを見出した。
論文 参考訳(メタデータ) (2020-06-05T07:06:01Z) - Code Review in the Classroom [57.300604527924015]
教室設定の若い開発者は、コードレビュープロセスの潜在的に有利で問題のある領域の明確な図を提供している。
彼らのフィードバックは、プロセスはプロセスを改善するためにいくつかのポイントで十分に受け入れられていることを示唆している。
本論文は,教室でコードレビューを行うためのガイドラインとして利用することができる。
論文 参考訳(メタデータ) (2020-04-19T06:07:45Z) - Automating App Review Response Generation [67.58267006314415]
本稿では,レビューと回答の知識関係を学習することで,レビュー応答を自動的に生成する新しいアプローチRRGenを提案する。
58のアプリと309,246のレビュー-レスポンスペアの実験では、RRGenはBLEU-4の点で少なくとも67.4%のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-10T05:23:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。