論文の概要: Open Source Software for Efficient and Transparent Reviews
- arxiv url: http://arxiv.org/abs/2006.12166v3
- Date: Fri, 4 Dec 2020 08:25:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 06:49:39.485802
- Title: Open Source Software for Efficient and Transparent Reviews
- Title(参考訳): 効率的かつ透明なレビューのためのオープンソースソフトウェア
- Authors: Rens van de Schoot, Jonathan de Bruin, Raoul Schram, Parisa Zahedi,
Jan de Boer, Felix Weijdema, Bianca Kramer, Martijn Huijts, Maarten
Hoogerwerf, Gerbrich Ferdinands, Albert Harkema, Joukje Willemsen, Yongchao
Ma, Qixiang Fang, Sybren Hindriks, Lars Tummers, Daniel Oberski
- Abstract要約: ASReviewはオープンソースの機械学習支援パイプラインで、アクティブラーニングを適用している。
シミュレーションにより,ASReviewは手作業によるレビューよりもはるかに効率的なレビューを実現することができることを示す。
- 参考スコア(独自算出の注目度): 0.11179881480027788
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To help researchers conduct a systematic review or meta-analysis as
efficiently and transparently as possible, we designed a tool (ASReview) to
accelerate the step of screening titles and abstracts. For many tasks -
including but not limited to systematic reviews and meta-analyses - the
scientific literature needs to be checked systematically. Currently, scholars
and practitioners screen thousands of studies by hand to determine which
studies to include in their review or meta-analysis. This is error prone and
inefficient because of extremely imbalanced data: only a fraction of the
screened studies is relevant. The future of systematic reviewing will be an
interaction with machine learning algorithms to deal with the enormous increase
of available text. We therefore developed an open source machine learning-aided
pipeline applying active learning: ASReview. We demonstrate by means of
simulation studies that ASReview can yield far more efficient reviewing than
manual reviewing, while providing high quality. Furthermore, we describe the
options of the free and open source research software and present the results
from user experience tests. We invite the community to contribute to open
source projects such as our own that provide measurable and reproducible
improvements over current practice.
- Abstract(参考訳): 研究者は,系統的なレビューやメタアナリシスを可能な限り効果的かつ透過的に行うために,タイトルや要約のスクリーニングを高速化するツール (ASReview) を設計した。
体系的なレビューやメタ分析を含む多くのタスクでは、科学的文献を体系的にチェックする必要があります。
現在、学者や実践者は、レビューやメタ分析にどの研究を組み込むべきかを手作業で調査している。
これは、極めて不均衡なデータのためにエラーを起こしやすく、非効率である。
体系的なレビューの未来は、利用可能なテキストの膨大な増加に対応するために、機械学習アルゴリズムとのインタラクションになる。
そこで我々は,アクティブラーニングを応用したオープンソースの機械学習支援パイプラインasreviewを開発した。
シミュレーションにより,ASReviewは手作業によるレビューよりもはるかに効率的なレビューを実現するとともに,高品質なレビューを実現することができることを示す。
さらに,フリーでオープンソースな研究ソフトウェアの選択肢を説明し,ユーザエクスペリエンステストの結果を紹介する。
私たちはコミュニティに対して,現在のプラクティスよりも測定可能かつ再現可能な改善を提供する,私たち自身のオープンソースプロジェクトへのコントリビューションを呼びかけています。
関連論文リスト
- A Reliable Knowledge Processing Framework for Combustion Science using
Foundation Models [0.0]
この研究は、多様な燃焼研究データを処理し、実験研究、シミュレーション、文献にまたがるアプローチを導入している。
開発されたアプローチは、データのプライバシと精度を最適化しながら、計算と経済の費用を最小化する。
このフレームワークは、最小限の人間の監視で、常に正確なドメイン固有の応答を提供する。
論文 参考訳(メタデータ) (2023-12-31T17:15:25Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [61.14928315004026]
オフ・ポリティクス強化学習は、インタラクティブな模倣学習よりも近いが、潜在的にさらに実践的な仮定の下で、パフォーマンスを向上させることができる。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Automated Grading and Feedback Tools for Programming Education: A
Systematic Review [7.776434991976473]
ほとんどの論文はオブジェクト指向言語における代入の正確性を評価する。
ソースコードの保守性、可読性、ドキュメントを評価するツールは少ない。
ほとんどのツールは、ほぼ即時フィードバックを可能にする完全に自動化されたアセスメントを提供する。
論文 参考訳(メタデータ) (2023-06-20T17:54:50Z) - GPT4 is Slightly Helpful for Peer-Review Assistance: A Pilot Study [0.0]
GPT4はピアレビュープロセスを支援するために開発された。
大規模な機械学習会議に提出された学術論文の人間レビュアーとGPTモデルによるレビューを比較することにより、人工知能がピアレビュープロセスに効果的に貢献できるという最初の証拠を提供する。
論文 参考訳(メタデータ) (2023-06-16T23:11:06Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Towards Informed Design and Validation Assistance in Computer Games
Using Imitation Learning [65.12226891589592]
本稿では,自動ゲーム検証とテストのための新しいアプローチを提案する。
本手法は,データ駆動型模倣学習技術を活用し,時間と労力をほとんど必要とせず,機械学習やプログラミングの知識も必要としない。
論文 参考訳(メタデータ) (2022-08-15T11:08:44Z) - Machine Learning State-of-the-Art with Uncertainties [3.4123736336071864]
本研究では,精度測定に関する信頼区間が研究成果のコミュニケーションをいかに大きく向上させるかを示すために,模範的な画像分類研究を行う。
機械学習記事のオーサリングとレビューのプロセスを改善するために提案する。
論文 参考訳(メタデータ) (2022-04-11T15:06:26Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Scaling up Search Engine Audits: Practical Insights for Algorithm
Auditing [68.8204255655161]
異なる地域に数百の仮想エージェントを配置した8つの検索エンジンの実験を行った。
複数のデータ収集にまたがる研究インフラの性能を実証する。
仮想エージェントは,アルゴリズムの性能を長時間にわたって監視するための,有望な場所である,と結論付けている。
論文 参考訳(メタデータ) (2021-06-10T15:49:58Z) - Bayesian active learning for production, a systematic study and a
reusable library [85.32971950095742]
本稿では,現在のアクティブラーニング技術の主な欠点について分析する。
実世界のデータセットの最も一般的な課題が深層能動学習プロセスに与える影響について,系統的研究を行った。
部分的不確実性サンプリングやより大きいクエリサイズといった,アクティブな学習ループを高速化する2つの手法を導出する。
論文 参考訳(メタデータ) (2020-06-17T14:51:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。