論文の概要: Investigating the use of Snowballing on Gray Literature Reviews
- arxiv url: http://arxiv.org/abs/2407.14991v1
- Date: Sat, 20 Jul 2024 21:53:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 19:38:37.045512
- Title: Investigating the use of Snowballing on Gray Literature Reviews
- Title(参考訳): 雪だるまの活用に関する研究 : 灰色文献レビュー
- Authors: Felipe Gomes, Thiago Mendes, Sávio Freire, Rodrigo Spínola, Manoel Mendonça,
- Abstract要約: そこで本研究では,Snowballing (SB) によるQ&Aサイトへのアプローチについて検討する。
レビューのための新しい有効な議論を見つけるために、2つのSBアプローチを適用する方法に関するガイドラインを提供する。
- 参考スコア(独自算出の注目度): 0.9270725412739198
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Background: The use of gray literature (GL) has grown in software engineering research, especially in studies that consider Questions and Answers (Q&A) sites, since software development professionals widely use them. Though snowballing (SB) techniques are standard in systematic literature reviews, little is known about how to apply them to gray literature reviews. Aims: This paper investigates how to use SB approaches on Q&A sites during gray literature reviews to identify new valid discussions for analysis. Method: In previous studies, we compiled and analyzed a set of Stack Exchange Project Management (SEPM) discussions related to software engineering technical debt (TD). Those studies used a data set consisting of 108 valid discussions extracted from SEPM. Based on this start data set, we perform forward and backward SB using two different approaches: link-based and similarity-based SB. We then compare the precision and recall of those two SB approaches against the search-based approach of the original study. Results: In just one snowballing iteration, the approaches yielded 291 new discussions for analysis, 130 of which were considered valid for our study. That is an increase of about 120% over the original data set (recall). The SB process also yielded a similar rate of valid discussion retrieval when compared to the search-based approach (precision). Conclusion: This paper provides guidelines on how to apply two SB approaches to find new valid discussions for review. To our knowledge, this is the first study that analyzes the use of SB on Q&A websites. By applying SB, it was possible to identify new discussions, significantly increasing the relevant data set for a gray literature review.
- Abstract(参考訳): 背景: 灰色の文学(GL)の使用は、ソフトウェア開発の専門家が広く使用しているため、特に質問と回答(Q&A)のサイトを考慮に入れた研究において、ソフトウェア工学の研究において成長している。
スノーボール(SB)技術は、体系的な文献レビューでは標準的な手法であるが、それらをグレーの文献レビューに適用する方法については、ほとんど知られていない。
Aims: 灰色文献レビュー中のQ&AサイトにおけるSBアプローチの活用方法を検討した。
方法: 前回の研究では,ソフトウェア工学の技術的負債(TD)に関するStack Exchange Project Management(SEPM)の一連の議論をまとめ,分析した。
これらの研究は、SEPMから抽出された108の有効な議論からなるデータセットを使用した。
この開始データセットに基づいて、リンクベースと類似性ベースのSBという2つの異なるアプローチを用いて前方および後方SBを実行する。
次に、これらの2つのSBアプローチの精度とリコールを、元の研究の検索ベースアプローチと比較する。
結果: 雪玉を1回だけ繰り返した結果, 解析のための新たな議論が291件あり, そのうち130件が本研究に有効と考えられた。
これは、元のデータセット(リコール)よりも約120%増加する。
また,SBプロセスは,探索に基づくアプローチ(精度)と比較して,有効な議論の検索率も同等に向上した。
結論:本論文は,2つのSBアプローチを適用して,レビューのための新たな有効な議論を見つける方法についてのガイドラインを提供する。
我々の知る限り、これはQ&AウェブサイトにおけるSBの使用を分析する最初の研究である。
SBの適用により,新たな議論の特定が可能となり,灰色文献レビューの関連データセットが大幅に増加した。
関連論文リスト
- A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Exploring the Power of Topic Modeling Techniques in Analyzing Customer
Reviews: A Comparative Analysis [0.0]
大量のテキストデータをオンラインで分析するために、機械学習と自然言語処理アルゴリズムがデプロイされている。
本研究では,顧客レビューに特化して用いられる5つのトピックモデリング手法について検討・比較する。
以上の結果から,BERTopicはより意味のあるトピックを抽出し,良好な結果を得ることができた。
論文 参考訳(メタデータ) (2023-08-19T08:18:04Z) - The impact and applications of ChatGPT: a systematic review of
literature reviews [0.0]
ChatGPTは、最も広く使われている自然言語処理ツールの1つである。
様々な産業や分野にまたがる応用を実証する何千もの論文が出版され、ChatGPTは研究コミュニティに大きな関心を呼んだ。
複数のレビューや研究から得られた証拠の概要は、さらなる洞察を与え、冗長性を最小化し、さらなる研究が必要な領域を特定することができる。
論文 参考訳(メタデータ) (2023-05-08T17:57:34Z) - A Gold Standard Dataset for the Reviewer Assignment Problem [117.59690218507565]
類似度スコア(Similarity score)とは、論文のレビューにおいて、レビュアーの専門知識を数値で見積もるものである。
私たちのデータセットは、58人の研究者による477の自己申告された専門知識スコアで構成されています。
2つの論文をレビュアーに関連付けるタスクは、簡単なケースでは12%~30%、ハードケースでは36%~43%である。
論文 参考訳(メタデータ) (2023-03-23T16:15:03Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Tag-Aware Document Representation for Research Paper Recommendation [68.8204255655161]
本稿では,ユーザによって割り当てられたソーシャルタグに基づいて,研究論文の深い意味表現を活用するハイブリッドアプローチを提案する。
提案手法は,評価データが極めて少ない場合でも研究論文の推薦に有効である。
論文 参考訳(メタデータ) (2022-09-08T09:13:07Z) - Suggesting Relevant Questions for a Query Using Statistical Natural
Language Processing Technique [0.0]
ユーザクエリに対する同様の質問の推奨には、EコマースWebサイトのユーザの検索時間短縮、企業の従業員のトレーニング、学生の全体学習など、多くのアプリケーションがある。
同様の疑問を提起するために自然言語処理技術が使われているのは、既存のアーキテクチャ上で一般的である。
論文 参考訳(メタデータ) (2022-04-26T04:30:16Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - A Survey on Text Classification: From Shallow to Deep Learning [83.47804123133719]
過去10年は、ディープラーニングが前例のない成功を収めたために、この分野の研究が急増している。
本稿では,1961年から2021年までの最先端のアプローチを見直し,そのギャップを埋める。
特徴抽出と分類に使用されるテキストとモデルに基づいて,テキスト分類のための分類を作成する。
論文 参考訳(メタデータ) (2020-08-02T00:09:03Z) - Learning Neural Textual Representations for Citation Recommendation [7.227232362460348]
サブモジュラースコアリング機能において,シームズとトリプルトネットワークを併用した文書(センテンス-BERT)の深部表現を用いた引用推薦手法を提案する。
我々の知る限りでは、これは引用推薦のタスクに対して、ディープ表現とサブモジュラー選択を組み合わせるための最初のアプローチである。
論文 参考訳(メタデータ) (2020-07-08T12:38:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。