論文の概要: A Systematic Literature Review of Empiricism and Norms of Reporting in
Computing Education Research Literature
- arxiv url: http://arxiv.org/abs/2107.01984v1
- Date: Fri, 2 Jul 2021 16:37:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 18:26:35.162310
- Title: A Systematic Literature Review of Empiricism and Norms of Reporting in
Computing Education Research Literature
- Title(参考訳): コンピュータ教育研究文学における経験主義と報告のノームの体系的文献レビュー
- Authors: Sarah Heckman and Jeffrey C. Carver and Mark Sherriff and Ahmed
Al-Zubidy
- Abstract要約: 本研究の目的は,コンピュータ教育研究(CER)文学における経験主義の報告を特徴付けることである。
2014年と2015年に5つのCER会場で427件の論文のSLRを行った。
80%以上の論文がある種の経験的評価をしていた。
- 参考スコア(独自算出の注目度): 4.339510167603376
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computing Education Research (CER) is critical for supporting the increasing
number of students who need to learn computing skills. To systematically
advance knowledge, publications must be clear enough to support replications,
meta-analyses, and theory-building. The goal of this study is to characterize
the reporting of empiricism in CER literature by identifying whether
publications include information to support replications, meta-analyses, and
theory building. The research questions are: RQ1) What percentage of papers in
CER venues have empirical evaluation? RQ2) What are the characteristics of the
empirical evaluation? RQ3) Do the papers with empirical evaluation follow
reporting norms (both for inclusion and for labeling of key information)? We
conducted an SLR of 427 papers published during 2014 and 2015 in five CER
venues: SIGCSE TS, ICER, ITiCSE, TOCE, and CSE. We developed and applied the
CER Empiricism Assessment Rubric. Over 80% of papers had some form of empirical
evaluation. Quantitative evaluation methods were the most frequent. Papers most
frequently reported results on interventions around pedagogical techniques,
curriculum, community, or tools. There was a split in papers that had some type
of comparison between an intervention and some other data set or baseline. Many
papers lacked properly reported research objectives, goals, research questions,
or hypotheses, description of participants, study design, data collection, and
threats to validity. CER authors are contributing empirical results to the
literature; however, not all norms for reporting are met. We encourage authors
to provide clear, labeled details about their work so readers can use the
methodologies and results for replications and meta-analyses. As our community
grows, our reporting of CER should mature to help establish computing education
theory to support the next generation of computing learners.
- Abstract(参考訳): コンピュータ教育研究(CER)は、コンピュータのスキルを習得する学生の増加をサポートするために重要である。
知識を体系的に前進させるためには、出版物は複製、メタ分析、理論構築をサポートするのに十分クリアでなければならない。
本研究の目的は,出版物が複製,メタアナリシス,理論構築をサポートする情報を含むか否かを特定することで,CER文学における経験主義の報告を特徴付けることである。
RQ1) CER会場の論文のどの割合に経験的評価があるか。
RQ2) 経験的評価の特徴は何か。
rq3) 経験的評価を持つ論文は報告基準(包含とキー情報のラベル付けの両方)に従うか?
2014年と2015年に、SIGCSE TS, ICER, ITiCSE, TOCE, CSEの5つの会場で427の論文を発表した。
我々はcerempiricism assessment rubricを開発し,応用した。
80%以上の論文がある種の経験的評価をしていた。
定量的評価手法が最も多かった。
最も頻繁に報告されている論文は教育技術、カリキュラム、コミュニティ、ツールに関する介入に関するものである。
介入と他のデータセットやベースラインとを何らかの形で比較した論文の分割があった。
多くの論文は、適切に報告された研究目標、目標、研究質問、仮説、参加者の説明、研究設計、データ収集、妥当性への脅威を欠いていた。
CERの著者は文献に経験的な結果をもたらしているが、報告の規範がすべて満たされているわけではない。
著者には、その作業に関する明確なラベル付き詳細を提供して、読者がレプリケーションやメタ分析に方法論と結果を使用することを推奨します。
コミュニティが成長するにつれて、CERの報告は成熟して、次世代のコンピューティング学習者を支援するためのコンピューティング教育理論の確立に役立ちます。
関連論文リスト
- A Literature Review of Literature Reviews in Pattern Analysis and
Machine Intelligence [62.90682521144006]
この分析は、様々な観点からPAMI分野のレビューを徹底的にレビューすることを目的としている。
書評を自動評価するために,大規模言語モデルを用いた書評指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - "Why Should I Review This Paper?" Unifying Semantic, Topic, and Citation
Factors for Paper-Reviewer Matching [31.658757187200603]
本稿では,意味的,話題的,引用的要素を協調的にキャプチャする,論文レビューアマッチングのための統一モデルを提案する。
提案したUniPRモデルと最先端のペーパーリビューアマッチング手法を比較検討した。
論文 参考訳(メタデータ) (2023-10-23T01:29:18Z) - Bias and Fairness in Large Language Models: A Survey [76.65471160523444]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Divide and Conquer the EmpiRE: A Community-Maintainable Knowledge Graph
of Empirical Research in Requirements Engineering [0.3277163122167433]
要件エンジニアリング(RE)に関する実証研究は、常に進化している。
根底にある問題は、以前の作業からのデータが利用できないことだ。
オープンリサーチ知識グラフ(ORKG)を,REにおける経験的研究の知識グラフを構築,公開するための基盤として利用する方法について検討する。
論文 参考訳(メタデータ) (2023-06-29T08:55:35Z) - Artificial intelligence technologies to support research assessment: A
review [10.203602318836444]
この文献レビューは、記事のテキストから、より高いインパクトやより高い品質の研究に関連する指標を特定する。
論文やカンファレンス論文の引用数や品質スコアを予測するために機械学習技術を使用した研究が含まれている。
論文 参考訳(メタデータ) (2022-12-11T06:58:39Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - State-of-the-art generalisation research in NLP: A taxonomy and review [87.1541712509283]
NLPにおける一般化研究の特徴付けと理解のための分類法を提案する。
我々の分類学は、一般化研究の広範な文献レビューに基づいている。
私たちは、一般化をテストする400以上の論文を分類するために分類を使います。
論文 参考訳(メタデータ) (2022-10-06T16:53:33Z) - Best Practices and Scoring System on Reviewing A.I. based Medical
Imaging Papers: Part 1 Classification [0.9428556282541211]
SIIMの機械学習教育サブミッションは、これらの研究をレビューするためのガイドラインを確立するための知識ギャップと深刻な必要性を特定している。
このシリーズの最初のエントリは、画像分類のタスクに焦点を当てている。
このシリーズの目的は、A.I.をベースとした医療画像のレビュープロセスを改善するためのリソースを提供することである。
論文 参考訳(メタデータ) (2022-02-03T21:46:59Z) - Wizard of Search Engine: Access to Information Through Conversations
with Search Engines [58.53420685514819]
我々は3つの側面からCISの研究を促進するために努力している。
目的検出(ID)、キーフレーズ抽出(KE)、行動予測(AP)、クエリ選択(QS)、通過選択(PS)、応答生成(RG)の6つのサブタスクでCIS用のパイプラインを定式化する。
検索エンジンのウィザード(WISE)と呼ばれるベンチマークデータセットをリリースし、CISのすべての側面について包括的かつ詳細な調査を可能にします。
論文 参考訳(メタデータ) (2021-05-18T06:35:36Z) - A Survey on Text Classification: From Shallow to Deep Learning [83.47804123133719]
過去10年は、ディープラーニングが前例のない成功を収めたために、この分野の研究が急増している。
本稿では,1961年から2021年までの最先端のアプローチを見直し,そのギャップを埋める。
特徴抽出と分類に使用されるテキストとモデルに基づいて,テキスト分類のための分類を作成する。
論文 参考訳(メタデータ) (2020-08-02T00:09:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。