論文の概要: Open Source Software for Efficient and Transparent Reviews
- arxiv url: http://arxiv.org/abs/2006.12166v3
- Date: Fri, 4 Dec 2020 08:25:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 06:49:39.485802
- Title: Open Source Software for Efficient and Transparent Reviews
- Title(参考訳): 効率的かつ透明なレビューのためのオープンソースソフトウェア
- Authors: Rens van de Schoot, Jonathan de Bruin, Raoul Schram, Parisa Zahedi,
Jan de Boer, Felix Weijdema, Bianca Kramer, Martijn Huijts, Maarten
Hoogerwerf, Gerbrich Ferdinands, Albert Harkema, Joukje Willemsen, Yongchao
Ma, Qixiang Fang, Sybren Hindriks, Lars Tummers, Daniel Oberski
- Abstract要約: ASReviewはオープンソースの機械学習支援パイプラインで、アクティブラーニングを適用している。
シミュレーションにより,ASReviewは手作業によるレビューよりもはるかに効率的なレビューを実現することができることを示す。
- 参考スコア(独自算出の注目度): 0.11179881480027788
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To help researchers conduct a systematic review or meta-analysis as
efficiently and transparently as possible, we designed a tool (ASReview) to
accelerate the step of screening titles and abstracts. For many tasks -
including but not limited to systematic reviews and meta-analyses - the
scientific literature needs to be checked systematically. Currently, scholars
and practitioners screen thousands of studies by hand to determine which
studies to include in their review or meta-analysis. This is error prone and
inefficient because of extremely imbalanced data: only a fraction of the
screened studies is relevant. The future of systematic reviewing will be an
interaction with machine learning algorithms to deal with the enormous increase
of available text. We therefore developed an open source machine learning-aided
pipeline applying active learning: ASReview. We demonstrate by means of
simulation studies that ASReview can yield far more efficient reviewing than
manual reviewing, while providing high quality. Furthermore, we describe the
options of the free and open source research software and present the results
from user experience tests. We invite the community to contribute to open
source projects such as our own that provide measurable and reproducible
improvements over current practice.
- Abstract(参考訳): 研究者は,系統的なレビューやメタアナリシスを可能な限り効果的かつ透過的に行うために,タイトルや要約のスクリーニングを高速化するツール (ASReview) を設計した。
体系的なレビューやメタ分析を含む多くのタスクでは、科学的文献を体系的にチェックする必要があります。
現在、学者や実践者は、レビューやメタ分析にどの研究を組み込むべきかを手作業で調査している。
これは、極めて不均衡なデータのためにエラーを起こしやすく、非効率である。
体系的なレビューの未来は、利用可能なテキストの膨大な増加に対応するために、機械学習アルゴリズムとのインタラクションになる。
そこで我々は,アクティブラーニングを応用したオープンソースの機械学習支援パイプラインasreviewを開発した。
シミュレーションにより,ASReviewは手作業によるレビューよりもはるかに効率的なレビューを実現するとともに,高品質なレビューを実現することができることを示す。
さらに,フリーでオープンソースな研究ソフトウェアの選択肢を説明し,ユーザエクスペリエンステストの結果を紹介する。
私たちはコミュニティに対して,現在のプラクティスよりも測定可能かつ再現可能な改善を提供する,私たち自身のオープンソースプロジェクトへのコントリビューションを呼びかけています。
関連論文リスト
- LLAssist: Simple Tools for Automating Literature Review Using Large Language Models [0.0]
LLAssistは学術研究における文献レビューの合理化を目的としたオープンソースツールである。
レビュープロセスの重要な側面を自動化するために、Large Language Models(LLM)とNatural Language Processing(NLP)技術を使用する。
論文 参考訳(メタデータ) (2024-07-19T02:48:54Z) - SyROCCo: Enhancing Systematic Reviews using Machine Learning [6.805429133535976]
本稿では,システムレビュープロセスのナビゲートを支援する機械学習技術について検討する。
データ抽出やエビデンスマッピングといったレビューのその後の段階へのML技術の適用は、その初期段階にある。
論文 参考訳(メタデータ) (2024-06-24T11:04:43Z) - Towards Coarse-to-Fine Evaluation of Inference Efficiency for Large Language Models [95.96734086126469]
大規模言語モデル(LLM)は、ユーザが仕事を達成するのを助けるアシスタントとして機能し、高度なアプリケーションの開発をサポートする。
LLMの幅広い応用にとって、推論効率は重要な問題であり、既存の研究で広く研究されている。
各種コードライブラリの推論性能の粗大な解析を行う。
論文 参考訳(メタデータ) (2024-04-17T15:57:50Z) - Automated Extraction and Maturity Analysis of Open Source Clinical Informatics Repositories from Scientific Literature [0.0]
本研究では、arXivにインデックスされた学術論文からGitHubリポジトリURLを体系的に抽出することにより、ギャップを埋める自動化手法を提案する。
当社のアプローチでは、関連論文に対するarXiv APIのクエリ、抽出したGitHub URLのクリーニング、GitHub APIによる包括的なリポジトリ情報の取得、スター、フォーク、オープンイシュー、コントリビュータなどの定義されたメトリクスに基づいてリポジトリの成熟度を分析しています。
論文 参考訳(メタデータ) (2024-03-20T17:06:51Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - A Reliable Knowledge Processing Framework for Combustion Science using
Foundation Models [0.0]
この研究は、多様な燃焼研究データを処理し、実験研究、シミュレーション、文献にまたがるアプローチを導入している。
開発されたアプローチは、データのプライバシと精度を最適化しながら、計算と経済の費用を最小化する。
このフレームワークは、最小限の人間の監視で、常に正確なドメイン固有の応答を提供する。
論文 参考訳(メタデータ) (2023-12-31T17:15:25Z) - Automated Grading and Feedback Tools for Programming Education: A
Systematic Review [7.776434991976473]
ほとんどの論文はオブジェクト指向言語における代入の正確性を評価する。
ソースコードの保守性、可読性、ドキュメントを評価するツールは少ない。
ほとんどのツールは、ほぼ即時フィードバックを可能にする完全に自動化されたアセスメントを提供する。
論文 参考訳(メタデータ) (2023-06-20T17:54:50Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Towards Informed Design and Validation Assistance in Computer Games
Using Imitation Learning [65.12226891589592]
本稿では,自動ゲーム検証とテストのための新しいアプローチを提案する。
本手法は,データ駆動型模倣学習技術を活用し,時間と労力をほとんど必要とせず,機械学習やプログラミングの知識も必要としない。
論文 参考訳(メタデータ) (2022-08-15T11:08:44Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Bayesian active learning for production, a systematic study and a
reusable library [85.32971950095742]
本稿では,現在のアクティブラーニング技術の主な欠点について分析する。
実世界のデータセットの最も一般的な課題が深層能動学習プロセスに与える影響について,系統的研究を行った。
部分的不確実性サンプリングやより大きいクエリサイズといった,アクティブな学習ループを高速化する2つの手法を導出する。
論文 参考訳(メタデータ) (2020-06-17T14:51:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。