論文の概要: How Many Papers Should You Review? A Research Synthesis of Systematic
Literature Reviews in Software Engineering
- arxiv url: http://arxiv.org/abs/2307.06056v1
- Date: Wed, 12 Jul 2023 10:18:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 17:45:06.342931
- Title: How Many Papers Should You Review? A Research Synthesis of Systematic
Literature Reviews in Software Engineering
- Title(参考訳): あなたは何冊の論文をレビューすべきですか?
ソフトウェア工学における体系的文献レビューの研究合成
- Authors: Xiaofeng Wang, Henry Edison, Dron Khanna and Usman Rafiq
- Abstract要約: 我々は、ソフトウェア工学におけるSLRの実施時期について、より深く理解することを目指している。
トップレベルSEジャーナルに掲載された170個のSLRのサンプルについて研究合成を行った。
本研究の結果はSE研究者によって,SLRが良好なタイミングで実施されているかどうかの指標やベンチマークとして利用することができる。
- 参考スコア(独自算出の注目度): 5.6292136785289175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: [Context] Systematic Literature Review (SLR) has been a major type of study
published in Software Engineering (SE) venues for about two decades. However,
there is a lack of understanding of whether an SLR is really needed in
comparison to a more conventional literature review. Very often, SE researchers
embark on an SLR with such doubts. We aspire to provide more understanding of
when an SLR in SE should be conducted. [Objective] The first step of our
investigation was focused on the dataset, i.e., the reviewed papers, in an SLR,
which indicates the development of a research topic or area. The objective of
this step is to provide a better understanding of the characteristics of the
datasets of SLRs in SE. [Method] A research synthesis was conducted on a sample
of 170 SLRs published in top-tier SE journals. We extracted and analysed the
quantitative attributes of the datasets of these SLRs. [Results] The findings
show that the median size of the datasets in our sample is 57 reviewed papers,
and the median review period covered is 14 years. The number of reviewed papers
and review period have a very weak and non-significant positive correlation.
[Conclusions] The results of our study can be used by SE researchers as an
indicator or benchmark to understand whether an SLR is conducted at a good
time.
- Abstract(参考訳): [Context] Systematic Literature Review (SLR) は約20年間,Software Engineering (SE) の会場で発表された主要な研究の1つです。
しかし,従来の文献レビューと比較すると,SLRが本当に必要であるかどうかは理解されていない。
しばしばSEの研究者たちは疑念を持ってSLRに乗り出す。
私たちは、slrがいつ行われるべきかをより理解したいと考えています。
目的]本研究の第1段階は,研究トピックや領域の発達を示すSLRにおいて,レビュー論文のデータセットに焦点を当てた。
このステップの目的は、SEにおけるSLRのデータセットの特徴をよりよく理解することである。
方法]トップクラスのseジャーナルに掲載された170のslrのサンプルを用いて研究合成を行った。
これらのSLRのデータセットの量的属性を抽出し分析した。
その結果, サンプル中のデータセットの中央値サイズは57紙であり, 調査期間は14年であった。
レビュー論文の数とレビュー期間は、非常に弱く、重要な正の相関がある。
結論]本研究の結果はSE研究者によって,SLRが良好なタイミングで実施されているかどうかの指標やベンチマークとして利用することができる。
関連論文リスト
- LLMs Assist NLP Researchers: Critique Paper (Meta-)Reviewing [106.45895712717612]
大規模言語モデル(LLM)は、様々な生成タスクにおいて顕著な汎用性を示している。
本研究は,NLP研究者を支援するLLMの話題に焦点を当てる。
私たちの知る限りでは、このような包括的な分析を提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2024-06-24T01:30:22Z) - Peer Review as A Multi-Turn and Long-Context Dialogue with Role-Based Interactions [62.0123588983514]
大規模言語モデル(LLM)は様々な分野にまたがる幅広い応用を実証してきた。
我々は、ピアレビュープロセスを多ターン長文対話として再構築し、著者、レビュアー、意思決定者に対して異なる役割を担っている。
複数の情報源から収集された92,017件のレビューを含む26,841件の論文を含む包括的データセットを構築した。
論文 参考訳(メタデータ) (2024-06-09T08:24:17Z) - System for systematic literature review using multiple AI agents:
Concept and an empirical evaluation [5.194208843843004]
本稿では,システム文献レビューの実施プロセスの完全自動化を目的とした,新しいマルチAIエージェントモデルを提案する。
このモデルは、研究者がトピックを入力するユーザフレンドリーなインターフェースを介して動作する。
関連する学術論文を検索するために使用される検索文字列を生成する。
モデルはこれらの論文の要約を自律的に要約する。
論文 参考訳(メタデータ) (2024-03-13T10:27:52Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Artificial Intelligence for Literature Reviews: Opportunities and Challenges [0.0]
この写本は、システム文献レビューにおける人工知能の使用に関する包括的なレビューを提示する。
SLRは、あるトピックに関する以前の研究を評価し、統合する厳格で組織化された方法論である。
従来の23の機能と11のAI機能を組み合わせたフレームワークを用いて、主要なSLRツール21について検討する。
論文 参考訳(メタデータ) (2024-02-13T16:05:51Z) - Expanding Horizons in HCI Research Through LLM-Driven Qualitative
Analysis [3.5253513747455303]
大規模言語モデル(LLM)を用いたHCIにおける定性解析の新しいアプローチを提案する。
以上の結果から,LSMは従来の解析手法と一致しただけでなく,ユニークな知見も得られることが示唆された。
論文 参考訳(メタデータ) (2024-01-07T12:39:31Z) - CSMeD: Bridging the Dataset Gap in Automated Citation Screening for
Systematic Literature Reviews [10.207938863784829]
CSMeDは9つの公開コレクションを統合したメタデータセットである。
CSMeDは自動引用スクリーニングモデルの性能を訓練し評価するための総合的なリソースとして機能する。
我々はCSMeD-FTを導入した。CSMeD-FTは、全文パブリッシュスクリーニングタスクを明示的に評価するために設計された新しいデータセットである。
論文 参考訳(メタデータ) (2023-11-21T09:36:11Z) - L-Eval: Instituting Standardized Evaluation for Long Context Language
Models [91.05820785008527]
長い文脈言語モデル(LCLM)のより標準化された評価を行うためにL-Evalを提案する。
20のサブタスク、508の長いドキュメント、2000以上の人間ラベルのクエリ応答対を含む新しい評価スイートを構築した。
その結果、一般的なn-gramマッチングの指標は人間の判断とよく相関しないことがわかった。
論文 参考訳(メタデータ) (2023-07-20T17:59:41Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - A Comprehensive Review of Sign Language Recognition: Different Types,
Modalities, and Datasets [0.0]
SLRの利用は、多くのアプリケーションで増加しているが、環境、背景画像の解像度、モダリティ、データセットはパフォーマンスに大きな影響を与えている。
本稿では、SLRの概要を概観し、SLRに関するニーズ、課題、課題について論じる。
過去10年間で、研究の進展と既存の最先端のSLRモデルがレビューされている。
論文 参考訳(メタデータ) (2022-04-07T09:49:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。