論文の概要: AiReview: An Open Platform for Accelerating Systematic Reviews with LLMs
- arxiv url: http://arxiv.org/abs/2504.04193v1
- Date: Sat, 05 Apr 2025 14:55:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:08:42.496123
- Title: AiReview: An Open Platform for Accelerating Systematic Reviews with LLMs
- Title(参考訳): AiReview: LLMによるシステムレビューの高速化のためのオープンプラットフォーム
- Authors: Xinyu Mao, Teerapong Leelanupab, Martin Potthast, Harrisen Scells, Guido Zuccon,
- Abstract要約: AiReview は LLM による体系的レビュー作成のための新しいプラットフォームである。
最先端のLCM支援スクリーニング法と、医学的体系的レビューを作成する方法とのギャップを埋める最初の方法である。
- 参考スコア(独自算出の注目度): 43.1999161587789
- License:
- Abstract: Systematic reviews are fundamental to evidence-based medicine. Creating one is time-consuming and labour-intensive, mainly due to the need to screen, or assess, many studies for inclusion in the review. Several tools have been developed to streamline this process, mostly relying on traditional machine learning methods. Large language models (LLMs) have shown potential in further accelerating the screening process. However, no tool currently allows end users to directly leverage LLMs for screening or facilitates systematic and transparent usage of LLM-assisted screening methods. This paper introduces (i) an extensible framework for applying LLMs to systematic review tasks, particularly title and abstract screening, and (ii) a web-based interface for LLM-assisted screening. Together, these elements form AiReview-a novel platform for LLM-assisted systematic review creation. AiReview is the first of its kind to bridge the gap between cutting-edge LLM-assisted screening methods and those that create medical systematic reviews. The tool is available at https://aireview.ielab.io. The source code is also open sourced at https://github.com/ielab/ai-review.
- Abstract(参考訳): 体系的なレビューはエビデンスベースの医療に不可欠である。
作成に要する時間と労力は、主にレビューに含めるための多くの研究を検査し、評価する必要があるためである。
このプロセスを合理化するために、いくつかのツールが開発されている。
大規模言語モデル(LLM)はスクリーニングプロセスをさらに加速させる可能性を示している。
しかしながら、現時点では、エンドユーザがLDMを直接利用してスクリーニングしたり、LLM支援スクリーニングの体系的かつ透過的な利用を促進できるツールは存在しない。
本論の紹介
i) LLMを体系的なレビュータスク、特にタイトルや抽象的なスクリーニングに応用するための拡張可能なフレームワーク
(ii) LLM を用いたスクリーニングのための Web ベースのインタフェース。
これらの要素が組み合わさって、ALMによる体系的レビュー作成のための新しいプラットフォームであるAiReviewを形成する。
AiReviewは、最先端のLCM支援スクリーニング方法と、医学的体系的なレビューを作成する方法とのギャップを埋める最初のものだ。
このツールはhttps://aireview.ielab.io.comで入手できる。
ソースコードはhttps://github.com/ielab/ai-review.comで公開されている。
関連論文リスト
- DenseReviewer: A Screening Prioritisation Tool for Systematic Review based on Dense Retrieval [26.324382303173135]
関連する研究を優先順位付けすることで、下流の体系的なレビュー作成タスクを早期に開始し、時間を節約できる。
提案手法は,従来の能動的学習法よりも有効性と効率性に優れていた。
ツールの設計を説明し、スクリーニングをどのように役立つかを示す。
論文 参考訳(メタデータ) (2025-02-05T17:42:59Z) - LitLLMs, LLMs for Literature Review: Are we there yet? [15.785989492351684]
本稿では,近年の大規模言語モデルのゼロショット能力について,要約に基づく文献レビューの執筆支援について考察する。
まず LLM を用いて,論文の要約から意味のあるキーワードを抽出する新しい2段階探索手法を提案する。
生成段階では、まずレビューの計画を概説し、次に実際のレビューを生成するためのステップを実行する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2024-12-15T01:12:26Z) - Show, Don't Tell: Aligning Language Models with Demonstrated Feedback [54.10302745921713]
Demonstration ITerated Task Optimization (DITTO)は、言語モデルの出力とユーザの実証された振る舞いを直接調整する。
我々は,DITTOがニュース記事やメール,ブログ記事などのドメイン間できめ細かいスタイルやタスクアライメントを学習する能力を評価する。
論文 参考訳(メタデータ) (2024-06-02T23:13:56Z) - The Promise and Challenges of Using LLMs to Accelerate the Screening Process of Systematic Reviews [7.030989629685138]
LLM(Large Language Models)は、人間のスクリーニングの抽象化を単純化することにより、タイトル・サブトラクションのスクリーニングを高速化する。
我々は,従来のシステムレビューのオリジナルと簡易の2つの要約を用いて,人間が20論文のタイトルと要約をスクリーニングする実験を行った。
また,異なるプロンプト技術 (Zero-shot (ZS), One-shot (OS), Few-shot (FS), Few-shot with Chain-of-Thought (FS-CoT)) がLCMのスクリーニング性能を向上させるかを検討した。
論文 参考訳(メタデータ) (2024-04-24T05:53:20Z) - ST-LLM: Large Language Models Are Effective Temporal Learners [58.79456373423189]
大規模言語モデル(LLM)は、テキストの理解と生成において印象的な能力を示した。
ビデオベースの対話システムでビデオを効果的にエンコードし、理解する方法は、まだ解決されていない。
LLM内部の時空間シーケンスをモデル化したビデオLLMベースラインST-LLMを提案する。
論文 参考訳(メタデータ) (2024-03-30T10:11:26Z) - LitLLM: A Toolkit for Scientific Literature Review [15.785989492351684]
本稿では,RAG(Retrieval Augmented Generation)の原理に基づくツールキットを提案する。
本システムはまず,関連論文を検索するWeb検索を開始する。
第2に、ユーザが提供する抽象化に基づいて、検索した論文を再ランクする。
第3に、再ランクされた結果と要約に基づいて、関連する作業部を生成する。
論文 参考訳(メタデータ) (2024-02-02T02:41:28Z) - Video Understanding with Large Language Models: A Survey [97.29126722004949]
言語・マルチモーダルタスクにおける大規模言語モデル(LLM)の顕著な機能を考えると,近年の映像理解の進歩について概観する。
Vid-LLMの創発的能力は驚くほど進歩しており、特にオープンな多粒性推論能力がある。
本調査は,Vid-LLMのタスク,データセット,ベンチマーク,評価方法論に関する総合的研究である。
論文 参考訳(メタデータ) (2023-12-29T01:56:17Z) - LM-Polygraph: Uncertainty Estimation for Language Models [71.21409522341482]
不確実性推定(UE)手法は、大規模言語モデル(LLM)の安全性、責任性、効果的な利用のための1つの経路である。
テキスト生成タスクにおけるLLMの最先端UEメソッドのバッテリを実装したフレームワークであるLM-PolygraphをPythonで統一したプログラムインタフェースで導入する。
研究者によるUEテクニックの一貫した評価のための拡張可能なベンチマークと、信頼スコア付き標準チャットダイアログを強化するデモWebアプリケーションを導入している。
論文 参考訳(メタデータ) (2023-11-13T15:08:59Z) - Calculating Originality of LLM Assisted Source Code [0.0]
本稿では,学生がソースコードを書く際の本来の取り組み(およびLLMの貢献)を決定するニューラルネットワークベースのツールを提案する。
我々のツールは、コルモゴロフ複雑性のような最小記述長測度によって動機付けられている。
論文 参考訳(メタデータ) (2023-07-10T11:30:46Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。