論文の概要: Learning Outcomes, Assessment, and Evaluation in Educational Recommender Systems: A Systematic Review
- arxiv url: http://arxiv.org/abs/2407.09500v1
- Date: Wed, 12 Jun 2024 21:53:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 22:08:50.475506
- Title: Learning Outcomes, Assessment, and Evaluation in Educational Recommender Systems: A Systematic Review
- Title(参考訳): 教育レコメンダシステムにおけるアウトカム,アセスメント,評価の学習 : システムレビュー
- Authors: Nursultan Askarbekuly, Ivan Luković,
- Abstract要約: 教育レコメンダシステム(ERS)における学習の測定と最適化について分析する。
レーティングベースの関連性は最も人気のあるターゲットメトリックであり、半数未満の論文が学習ベースのメトリクスを最適化している。
論文の3分の1は結果に基づく評価を使用してレコメンデーションの教育効果を測定した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this paper, we analyse how learning is measured and optimized in Educational Recommender Systems (ERS). In particular, we examine the target metrics and evaluation methods used in the existing ERS research, with a particular focus on the pedagogical effect of recommendations. While conducting this systematic literature review (SLR), we identified 1395 potentially relevant papers, then filtered them through the inclusion and exclusion criteria, and finally selected and analyzed 28 relevant papers. Rating-based relevance is the most popular target metric, while less than a half of papers optimize learning-based metrics. Only a third of the papers used outcome-based assessment to measure the pedagogical effect of recommendations, mostly within a formal university course. This indicates a gap in ERS research with respect to assessing the pedagogical effect of recommendations at scale and in informal education settings.
- Abstract(参考訳): 本稿では,教育レコメンダシステム(ERS)における学習の計測と最適化について分析する。
特に,既存のERS研究で使用される対象メトリクスと評価手法について検討し,特にレコメンデーションの教育的効果に着目した。
この体系的文献レビュー(SLR)を実施中,1395件の有意な論文を同定し,包括的および排他的基準によりフィルタリングし,最終的に28件の関連論文を選定,解析した。
レーティングベースの関連性は最も人気のあるターゲットメトリックであり、半数未満の論文が学習ベースのメトリクスを最適化している。
論文の3分の1は、結果に基づく評価を使用してレコメンデーションの教育効果を測定した。
このことは、大規模および非公式な教育環境におけるレコメンデーションの教育効果を評価する上でのERS研究のギャップを示している。
関連論文リスト
- Benchmark for Evaluation and Analysis of Citation Recommendation Models [0.0]
我々は、引用推薦モデルの解析と比較を専門とするベンチマークを開発する。
このベンチマークは、引用コンテキストの異なる特徴に基づいてモデルの性能を評価する。
これは有意義な比較を可能にし、この分野におけるさらなる研究と開発のための有望なアプローチを特定するのに役立つだろう。
論文 参考訳(メタデータ) (2024-12-10T18:01:33Z) - Revisiting Reciprocal Recommender Systems: Metrics, Formulation, and Method [60.364834418531366]
RRSの性能を包括的かつ正確に評価する5つの新しい評価指標を提案する。
因果的観点からRSを定式化し、二元的介入として勧告を定式化する。
提案手法では,結果の一致を最大化する手法を提案する。
論文 参考訳(メタデータ) (2024-08-19T07:21:02Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [55.33653554387953]
パターン分析とマシンインテリジェンス(PAMI)は、情報の収集と断片化を目的とした多くの文献レビューにつながっている。
本稿では、PAMI分野におけるこれらの文献レビューの徹底的な分析について述べる。
1)PAMI文献レビューの構造的・統計的特徴は何か,(2)レビューの増大するコーパスを効率的にナビゲートするために研究者が活用できる戦略は何か,(3)AIが作成したレビューの利点と限界は人間によるレビューと比較するとどのようなものか,という3つの主要な研究課題に対処しようとする。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - A Comprehensive Survey of Evaluation Techniques for Recommendation
Systems [0.0]
本稿では,システム性能の異なる側面を捉えた,総合的なメトリクススイートを紹介する。
私たちは、現在の評価プラクティスの長所と短所を特定し、さまざまなメトリクスにまたがってレコメンデーションシステムを最適化するときに現れる、微妙なトレードオフを強調します。
論文 参考訳(メタデータ) (2023-12-26T11:57:01Z) - Tag-Aware Document Representation for Research Paper Recommendation [68.8204255655161]
本稿では,ユーザによって割り当てられたソーシャルタグに基づいて,研究論文の深い意味表現を活用するハイブリッドアプローチを提案する。
提案手法は,評価データが極めて少ない場合でも研究論文の推薦に有効である。
論文 参考訳(メタデータ) (2022-09-08T09:13:07Z) - Evaluating the Predictive Performance of Positive-Unlabelled
Classifiers: a brief critical review and practical recommendations for
improvement [77.34726150561087]
Positive-Unlabelled (PU) 学習は機械学習の領域として成長している。
本稿では、PU分類器を提案する51の論文において、主要なPU学習評価手法と予測精度の選択について批判的にレビューする。
論文 参考訳(メタデータ) (2022-06-06T08:31:49Z) - Measuring "Why" in Recommender Systems: a Comprehensive Survey on the
Evaluation of Explainable Recommendation [87.82664566721917]
この調査は、IJCAI、AAAI、TheWebConf、Recsys、UMAP、IUIといったトップレベルのカンファレンスから100以上の論文に基づいています。
論文 参考訳(メタデータ) (2022-02-14T02:58:55Z) - Ranking Scientific Papers Using Preference Learning [48.78161994501516]
我々はこれをピアレビューテキストとレビュアースコアに基づく論文ランキング問題とみなした。
ピアレビューに基づいて最終決定を行うための,新しい多面的総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-02T19:41:47Z) - Academics evaluating academics: a methodology to inform the review
process on top of open citations [1.911678487931003]
オープンな引用のみを考慮して計算された引用に基づくメトリクスが、人間の査定演習のピアレビューの実施方法に関する洞察を得ることのできるデータを提供するかどうかを考察する。
我々は,研究評価演習の委員会の決定を再現するために,一連の機械学習モデルを提案する。
論文 参考訳(メタデータ) (2021-06-10T13:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。