論文の概要: Neural Rankers for Effective Screening Prioritisation in Medical
Systematic Review Literature Search
- arxiv url: http://arxiv.org/abs/2212.09017v1
- Date: Sun, 18 Dec 2022 05:26:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 15:35:00.360006
- Title: Neural Rankers for Effective Screening Prioritisation in Medical
Systematic Review Literature Search
- Title(参考訳): 医療システムレビュー文献検索における効果的なスクリーニング優先順位付けのためのニューラルネットワーク
- Authors: Shuai Wang, Harrisen Scells, Bevan Koopman, Guido Zuccon
- Abstract要約: 本稿では,事前学習した言語モデルを,体系的なレビュー文書ランキングタスクに適用する。
経験的分析は、このタスクの従来の方法と比較して、ニューラルネットワークがいかに効果的かを比較する。
以上の結果から,BERTをベースとしたランカは,現在のスクリーニング方法よりも優れていた。
- 参考スコア(独自算出の注目度): 31.797257552928336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical systematic reviews typically require assessing all the documents
retrieved by a search. The reason is two-fold: the task aims for ``total
recall''; and documents retrieved using Boolean search are an unordered set,
and thus it is unclear how an assessor could examine only a subset. Screening
prioritisation is the process of ranking the (unordered) set of retrieved
documents, allowing assessors to begin the downstream processes of the
systematic review creation earlier, leading to earlier completion of the
review, or even avoiding screening documents ranked least relevant.
Screening prioritisation requires highly effective ranking methods.
Pre-trained language models are state-of-the-art on many IR tasks but have yet
to be applied to systematic review screening prioritisation. In this paper, we
apply several pre-trained language models to the systematic review document
ranking task, both directly and fine-tuned. An empirical analysis compares how
effective neural methods compare to traditional methods for this task. We also
investigate different types of document representations for neural methods and
their impact on ranking performance.
Our results show that BERT-based rankers outperform the current
state-of-the-art screening prioritisation methods. However, BERT rankers and
existing methods can actually be complementary, and thus, further improvements
may be achieved if used in conjunction.
- Abstract(参考訳): 医学的体系的レビューは通常、検索によって取得されたすべての文書を評価する必要がある。
タスクは `total recall'' を目標としており、Boolean search で検索したドキュメントは順序のない集合であるため、アセスタがサブセットのみを検査できるかどうかは不明だ。
スクリーニング優先化(英語: screening prioritisation)とは、検索された文書の(順序付けされていない)集合をランク付けし、評価者がより早く体系的なレビュー作成の下流プロセスを開始することを可能にするプロセスである。
優先順位付けのスクリーニングには、非常に効果的なランキング方法が必要である。
事前学習された言語モデルは、多くのIRタスクにおいて最先端のものであるが、体系的な事前検査には適用されていない。
本稿では,事前学習された複数の言語モデルを,直接および微調整された体系的レビュー文書ランキングタスクに適用する。
経験的分析では、ニューラルネットワークが従来の手法と比べていかに効果的かを比較している。
また,ニューラルメソッドの文書表現の異なるタイプと,それらのランク付け性能への影響についても検討する。
以上の結果から,BERTをベースとしたランカは,現在のスクリーニング方法よりも優れていた。
しかし、BERTローダと既存のメソッドは実際には補完的であり、共同で使用すればさらなる改善が達成される可能性がある。
関連論文リスト
- JudgeRank: Leveraging Large Language Models for Reasoning-Intensive Reranking [81.88787401178378]
本稿では,文書関連性を評価する際に,人間の認知過程をエミュレートする新しいエージェント・リランカであるJiceRankを紹介する。
我々は,推論集約型BRIGHTベンチマークを用いて判定Rankを評価し,第1段階の検索手法よりも性能が大幅に向上したことを示す。
さらに、JiceRankは、人気の高いBEIRベンチマークの細調整された最先端リランカと同等に動作し、ゼロショットの一般化能力を検証している。
論文 参考訳(メタデータ) (2024-10-31T18:43:12Z) - Dense Retrieval with Continuous Explicit Feedback for Systematic Review Screening Prioritisation [28.80089773616623]
体系的なレビューにおいて優先順位付けをスクリーニングする目的は、関連文書を高いリコールで識別し、レビューの早い段階でランク付けすることである。
近年の研究では、ニューラルモデルがこのタスクに有意なポテンシャルがあることが示されているが、それらの時間を要する微調整と推論は、優先順位付けのスクリーニングに広く使用されることを妨げている。
ニューラルモデルに引き続き依存する代替アプローチを提案するが、高密度表現と関連フィードバックを活用してスクリーニングの優先順位付けを強化する。
論文 参考訳(メタデータ) (2024-06-30T09:25:42Z) - Generating Natural Language Queries for More Effective Systematic Review
Screening Prioritisation [53.77226503675752]
現在の技術状況では、レビューの最終タイトルをクエリとして、BERTベースのニューラルランクラを使用してドキュメントのランク付けに使用しています。
本稿では,ChatGPT や Alpaca などの命令ベース大規模言語モデルによって生成される文書の検索に使用される Boolean クエリやクエリなど,スクリーニングを優先するクエリの代替源について検討する。
私たちのベストアプローチは、スクリーニング時に利用可能な情報に基づいて実現されるだけでなく、最終タイトルと同じような効果があります。
論文 参考訳(メタデータ) (2023-09-11T05:12:14Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z) - Towards Reducing Manual Workload in Technology-Assisted Reviews:
Estimating Ranking Performance [30.29371206568408]
研究者が研究にラベルをつけると、関係する文書が無関係のものよりも高いランクの文書をスクリーニングすることができる。
本稿では,体系的レビューの文書ランキングの質について検討する。
SR文書のランキングを広範囲に分析した結果、SRのランキング品質に影響を与える要因として「トピックワイドネス」を仮定した。
論文 参考訳(メタデータ) (2022-01-14T19:48:45Z) - Mirror Matching: Document Matching Approach in Seed-driven Document
Ranking for Medical Systematic Reviews [31.3220495275256]
文書ランキングとは、関係する文書が無関係のものよりも上位にある文書ランキングを提供することによって研究者を支援する手法である。
本稿では,医用要約テキスト間のマッチングスコアを共通記述パターンを組み込んで計算するミラーマッチング(Mirror Matching)という文書マッチング尺度を提案する。
論文 参考訳(メタデータ) (2021-12-28T22:27:52Z) - Value Retrieval with Arbitrary Queries for Form-like Documents [50.5532781148902]
フォーム状文書に対する任意のクエリを用いた値検索を提案する。
本手法は,フォームのレイアウトやセマンティクスの理解に基づいて,任意のクエリのターゲット値を予測する。
本稿では,大規模モデル事前学習における文書理解を改善するためのシンプルな文書言語モデリング (simpleDLM) 戦略を提案する。
論文 参考訳(メタデータ) (2021-12-15T01:12:02Z) - Automating Document Classification with Distant Supervision to Increase
the Efficiency of Systematic Reviews [18.33687903724145]
体系的なレビューは高価で、時間的需要があり、労働集約的です。
文書のレビュー作業を大幅に削減するための自動文書分類アプローチを提案します。
論文 参考訳(メタデータ) (2020-12-09T22:45:40Z) - Document Ranking with a Pretrained Sequence-to-Sequence Model [56.44269917346376]
関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-03-14T22:29:50Z) - Pre-training Tasks for Embedding-based Large-scale Retrieval [68.01167604281578]
本稿では,大規模クエリ文書検索問題について考察する。
クエリ(例えば質問)が与えられたら、関連するドキュメントのセットを大きなドキュメントコーパスから返します。
本稿では, 組込み型トランスフォーマーモデルの学習の鍵となる要素が, 事前学習作業のセットであることを示す。
論文 参考訳(メタデータ) (2020-02-10T16:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。