論文の概要: Query-driven Document-level Scientific Evidence Extraction from Biomedical Studies
- arxiv url: http://arxiv.org/abs/2505.06186v3
- Date: Fri, 30 May 2025 12:10:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 15:03:34.928561
- Title: Query-driven Document-level Scientific Evidence Extraction from Biomedical Studies
- Title(参考訳): バイオメディカル研究からのクエリ駆動ドキュメンテーションレベルの科学的エビデンス抽出
- Authors: Massimiliano Pronesti, Joao Bettencourt-Silva, Paul Flanagan, Alessandra Pascale, Oisin Redmond, Anya Belz, Yufang Hou,
- Abstract要約: 本研究は,臨床問題に対する文書レベルの科学的根拠抽出の課題に焦点をあてる。
このタスクをサポートするために、CochraneForestというデータセットを作成します。
202の注釈付き森林プロット、関連する臨床研究の質問、研究の全文、研究固有の結論からなる。
- 参考スコア(独自算出の注目度): 46.28810910173083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extracting scientific evidence from biomedical studies for clinical research questions (e.g., Does stem cell transplantation improve quality of life in patients with medically refractory Crohn's disease compared to placebo?) is a crucial step in synthesising biomedical evidence. In this paper, we focus on the task of document-level scientific evidence extraction for clinical questions with conflicting evidence. To support this task, we create a dataset called CochraneForest, leveraging forest plots from Cochrane systematic reviews. It comprises 202 annotated forest plots, associated clinical research questions, full texts of studies, and study-specific conclusions. Building on CochraneForest, we propose URCA (Uniform Retrieval Clustered Augmentation), a retrieval-augmented generation framework designed to tackle the unique challenges of evidence extraction. Our experiments show that URCA outperforms the best existing methods by up to 10.3% in F1 score on this task. However, the results also underscore the complexity of CochraneForest, establishing it as a challenging testbed for advancing automated evidence synthesis systems.
- Abstract(参考訳): 臨床研究のためのバイオメディカル研究から科学的証拠を抽出する(例えば、幹細胞移植は偽薬と比較して医療難治性クローン病患者の生活の質を向上させるか?)は、バイオメディカルエビデンスを合成するための重要なステップである。
本稿では,臨床問題に対する文書レベルの科学的根拠抽出の課題と矛盾する証拠について考察する。
このタスクをサポートするために、CochraneForestというデータセットを作成し、Cochraneの体系的なレビューから森林のプロットを活用する。
202の注釈付き森林プロット、関連する臨床研究の質問、研究の全文、研究固有の結論からなる。
CochraneForest上に構築されたURCA(Uniform Retrieval Clustered Augmentation)は,エビデンス抽出の独特な課題に対処するために開発された検索拡張生成フレームワークである。
以上の結果から, URCAはF1スコアの最大10.3%向上した。
しかし、結果はまた、CochraneForestの複雑さを浮き彫りにして、自動エビデンス合成システムの進歩のための挑戦的なテストベッドとして確立した。
関連論文リスト
- ResearchBench: Benchmarking LLMs in Scientific Discovery via Inspiration-Based Task Decomposition [67.26124739345332]
大規模言語モデル(LLM)は科学的研究を支援する可能性を示しているが、高品質な研究仮説を発見する能力はいまだ検討されていない。
我々は,LLMを科学的発見のサブタスクのほぼ十分セットで評価するための,最初の大規模ベンチマークを紹介する。
学術論文から重要コンポーネント(研究質問、背景調査、インスピレーション、仮説)を抽出する自動フレームワークを開発する。
論文 参考訳(メタデータ) (2025-03-27T08:09:15Z) - Towards an AI co-scientist [48.11351101913404]
Gemini 2.0上に構築されたマルチエージェントシステムであるAIコサイシストを紹介する。
このAIの共同科学者は、新しい独創的な知識を解明し、明らかに新しい研究仮説を定式化することを目的としている。
システムの設計には、科学的手法にインスパイアされた仮説生成への生成、議論、進化のアプローチが組み込まれている。
論文 参考訳(メタデータ) (2025-02-26T06:17:13Z) - Clinical Evaluation of Medical Image Synthesis: A Case Study in Wireless Capsule Endoscopy [63.39037092484374]
人工知能(AI)に基づく合成データ生成は、臨床医学の届け方を変えることができる。
本研究は,無線カプセル内視鏡(WCE)画像を用いた炎症性腸疾患(IBD)の診断における概念実証による医療用SDGの臨床評価に焦点を当てた。
その結果、TIDE-IIは、最先端の生成モデルと比較して品質が向上し、臨床的に可塑性で、非常に現実的なWCE画像を生成することがわかった。
論文 参考訳(メタデータ) (2024-10-31T19:48:50Z) - Accelerating Clinical Evidence Synthesis with Large Language Models [28.002870749019035]
本稿では,人間とAIのコラボレーションを促進するための生成人工知能パイプラインであるTrialMindを紹介する。
TrialMindは、検索、スクリーニング、データ抽出タスクを横断的に拡張する。
人間の専門家は、GPT-4よりもTrialMindの出力を62.5%から100%のケースで好んだ。
論文 参考訳(メタデータ) (2024-06-25T17:41:52Z) - Detecting Contradictory COVID-19 Drug Efficacy Claims from Biomedical
Literature [6.74913937258046]
NLPモデルは、この複雑で高い領域の文献を蒸留し、理解するのに役立ちます。
私たちはこれを自然言語推論の問題として捉え、ドメインの専門家が作成した新しいNLIデータセットを提供します。
我々はこれらのモデルがどのようにドメインの専門家がremdisivirおよびヒドロキシクロロキンに関する証拠を要約し、評価するのに役立つかを事例研究する。
論文 参考訳(メタデータ) (2022-12-19T21:37:36Z) - Generating Scientific Claims for Zero-Shot Scientific Fact Checking [54.62086027306609]
科学言語の複雑さと大量のトレーニングデータが不足しているため、自動科学的事実チェックは困難である。
科学的な文から1つ以上の原子的かつ検証可能なクレームを生成するための科学的クレーム生成を提案する。
また, バイオメディカルクレームのゼロショット事実チェックにも有用であることを示す。
論文 参考訳(メタデータ) (2022-03-24T11:29:20Z) - Distinguishing Transformative from Incremental Clinical Evidence: A
Classifier of Clinical Research using Textual features from Abstracts and
Citing Sentences [1.3135234328352885]
臨床研究においては、特定の疾患管理のための現在のケア基準を、ある研究が変更するか、単にサポートしているだけなのかを知ることが重要である。
本研究では, 段階的臨床証拠と変質的臨床証拠を区別する機械学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-24T08:35:18Z) - Neural networks for Anatomical Therapeutic Chemical (ATC) [83.73971067918333]
両方向の長期記憶ネットワーク(BiLSTM)から抽出された集合を含む、特徴の異なるセットで訓練された複数の複数ラベル分類器を組み合わせることを提案する。
実験はこのアプローチのパワーを実証し、文献で報告された最良の手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2021-01-22T19:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。