論文の概要: Mirror Matching: Document Matching Approach in Seed-driven Document
Ranking for Medical Systematic Reviews
- arxiv url: http://arxiv.org/abs/2112.14318v1
- Date: Tue, 28 Dec 2021 22:27:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-31 00:41:45.155312
- Title: Mirror Matching: Document Matching Approach in Seed-driven Document
Ranking for Medical Systematic Reviews
- Title(参考訳): ミラーマッチング: 医療体系レビューのためのシード駆動文書ランキングにおける文書マッチングアプローチ
- Authors: Grace E. Lee and Aixin Sun
- Abstract要約: 文書ランキングとは、関係する文書が無関係のものよりも上位にある文書ランキングを提供することによって研究者を支援する手法である。
本稿では,医用要約テキスト間のマッチングスコアを共通記述パターンを組み込んで計算するミラーマッチング(Mirror Matching)という文書マッチング尺度を提案する。
- 参考スコア(独自算出の注目度): 31.3220495275256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When medical researchers conduct a systematic review (SR), screening studies
is the most time-consuming process: researchers read several thousands of
medical literature and manually label them relevant or irrelevant. Screening
prioritization (ie., document ranking) is an approach for assisting researchers
by providing document rankings where relevant documents are ranked higher than
irrelevant ones. Seed-driven document ranking (SDR) uses a known relevant
document (ie., seed) as a query and generates such rankings. Previous work on
SDR seeks ways to identify different term weights in a query document and
utilizes them in a retrieval model to compute ranking scores. Alternatively, we
formulate the SDR task as finding similar documents to a query document and
produce rankings based on similarity scores. We propose a document matching
measure named Mirror Matching, which calculates matching scores between medical
abstract texts by incorporating common writing patterns, such as background,
method, result, and conclusion in order. We conduct experiments on CLEF 2019
eHealth Task 2 TAR dataset, and the empirical results show this simple approach
achieves the higher performance than traditional and neural retrieval models on
Average Precision and Precision-focused metrics.
- Abstract(参考訳): 医学研究者が体系的レビュー(SR)を行う場合、スクリーニング研究は最も時間を要するプロセスである。
文書の優先順位付け (Screening Prioritization) とは、関係文書が関連文書よりも上位にある文書ランキングを提供することによって研究者を支援する手法である。
シード駆動型文書ランキング(SDR)は、クエリとして既知の関連ドキュメント(シード)を使用し、そのようなランキングを生成する。
SDRに関するこれまでの研究は、クエリ文書で異なる項重みを識別する方法を模索し、それらを検索モデルで利用してランキングスコアを計算する。
あるいは、SDRタスクを、クエリドキュメントと類似したドキュメントを見つけ、類似度スコアに基づいてランキングを生成するように定式化する。
本稿では,背景,方法,結果,結論などの共通記述パターンを順に組み込むことで,医用要約テキスト間のマッチングスコアを算出するミラーマッチングという文書マッチング尺度を提案する。
CLEF 2019 eHealth Task 2 TARデータセットで実験を行い、実験結果から、この単純なアプローチは平均精度と精度にフォーカスしたメトリクス上の従来のニューラルネットワークモデルよりも高いパフォーマンスを実現することが示された。
関連論文リスト
- AutoMIR: Effective Zero-Shot Medical Information Retrieval without Relevance Labels [19.90354530235266]
本稿では,自己学習仮説文書埋め込み (SL-HyDE) という新しい手法を導入し,この問題に対処する。
SL-HyDEは、与えられたクエリに基づいて仮説文書を生成するために、大きな言語モデル(LLM)をジェネレータとして利用する。
実世界の医療シナリオを基盤とした総合的な評価フレームワークとして,中国医療情報検索ベンチマーク(CMIRB)を提案する。
論文 参考訳(メタデータ) (2024-10-26T02:53:20Z) - Generating Natural Language Queries for More Effective Systematic Review
Screening Prioritisation [53.77226503675752]
現在の技術状況では、レビューの最終タイトルをクエリとして、BERTベースのニューラルランクラを使用してドキュメントのランク付けに使用しています。
本稿では,ChatGPT や Alpaca などの命令ベース大規模言語モデルによって生成される文書の検索に使用される Boolean クエリやクエリなど,スクリーニングを優先するクエリの代替源について検討する。
私たちのベストアプローチは、スクリーニング時に利用可能な情報に基づいて実現されるだけでなく、最終タイトルと同じような効果があります。
論文 参考訳(メタデータ) (2023-09-11T05:12:14Z) - Neural Rankers for Effective Screening Prioritisation in Medical
Systematic Review Literature Search [31.797257552928336]
本稿では,事前学習した言語モデルを,体系的なレビュー文書ランキングタスクに適用する。
経験的分析は、このタスクの従来の方法と比較して、ニューラルネットワークがいかに効果的かを比較する。
以上の結果から,BERTをベースとしたランカは,現在のスクリーニング方法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-18T05:26:40Z) - Tag-Aware Document Representation for Research Paper Recommendation [68.8204255655161]
本稿では,ユーザによって割り当てられたソーシャルタグに基づいて,研究論文の深い意味表現を活用するハイブリッドアプローチを提案する。
提案手法は,評価データが極めて少ない場合でも研究論文の推薦に有効である。
論文 参考訳(メタデータ) (2022-09-08T09:13:07Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z) - Augmenting Document Representations for Dense Retrieval with
Interpolation and Perturbation [49.940525611640346]
ドキュメント拡張(Document Augmentation for dense Retrieval)フレームワークは、ドキュメントの表現をDense Augmentationとperturbationsで強化する。
2つのベンチマークデータセットによる検索タスクにおけるDARの性能評価を行い、ラベル付き文書とラベルなし文書の密集検索において、提案したDARが関連するベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-03-15T09:07:38Z) - Towards Reducing Manual Workload in Technology-Assisted Reviews:
Estimating Ranking Performance [30.29371206568408]
研究者が研究にラベルをつけると、関係する文書が無関係のものよりも高いランクの文書をスクリーニングすることができる。
本稿では,体系的レビューの文書ランキングの質について検討する。
SR文書のランキングを広範囲に分析した結果、SRのランキング品質に影響を与える要因として「トピックワイドネス」を仮定した。
論文 参考訳(メタデータ) (2022-01-14T19:48:45Z) - An Analysis of a BERT Deep Learning Strategy on a Technology Assisted
Review Task [91.3755431537592]
文書検診はEvidenced Based Medicineにおける中心的な課題である。
本稿では,BERT や PubMedBERT を組み込んだ DL 文書分類手法と DL 類似性検索経路を提案する。
2017年と2018年のCLEF eHealth コレクションにおいて,私の DL 戦略の検索の有効性を検証し,評価した。
論文 参考訳(メタデータ) (2021-04-16T19:45:27Z) - Literature Retrieval for Precision Medicine with Neural Matching and
Faceted Summarization [2.978663539080876]
本稿では,ニューラルクエリ文書マッチングとテキスト要約を組み合わせた文書分類手法を提案する。
NISTのTREC-PMトラックデータセットを用いた評価により,本モデルが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2020-12-17T02:01:32Z) - Aspect-based Document Similarity for Research Papers [4.661692753666685]
文書分類タスクのペア化によってアスペクト情報との類似性を拡張する。
研究論文のアスペクトベースの文書類似性を評価する。
以上の結果から,SciBERTは最高の演奏システムであることがわかった。
論文 参考訳(メタデータ) (2020-10-13T13:51:21Z) - Overview of the TREC 2019 Fair Ranking Track [65.15263872493799]
TREC Fair Ranking トラックの目標は、異なるコンテンツプロバイダに対する公正性の観点から、検索システムを評価するベンチマークを開発することであった。
本稿では,タスク定義やデータ記述,アノテーションプロセスなどを含むトラックの概要について述べる。
論文 参考訳(メタデータ) (2020-03-25T21:34:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。