論文の概要: Medifact at PerAnsSumm 2025: Leveraging Lightweight Models for Perspective-Specific Summarization of Clinical Q&A Forums
- arxiv url: http://arxiv.org/abs/2503.16513v1
- Date: Sat, 15 Mar 2025 17:36:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-30 07:31:57.035972
- Title: Medifact at PerAnsSumm 2025: Leveraging Lightweight Models for Perspective-Specific Summarization of Clinical Q&A Forums
- Title(参考訳): PerAnsSumm 2025のメディファクト:臨床Q&Aフォーラムのパースペクティブな要約のための軽量モデルの活用
- Authors: Nadia Saeed,
- Abstract要約: PerAnsSumm 2025の課題は、パースペクティブを意識した医療回答の要約に焦点を当てている。
本研究では、Snorkel-BART-SVMパイプラインを使用して、オープンな医療コミュニティの質問回答の分類と要約を行う、数ショットの学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The PerAnsSumm 2025 challenge focuses on perspective-aware healthcare answer summarization (Agarwal et al., 2025). This work proposes a few-shot learning framework using a Snorkel-BART-SVM pipeline for classifying and summarizing open-ended healthcare community question-answering (CQA). An SVM model is trained with weak supervision via Snorkel, enhancing zero-shot learning. Extractive classification identifies perspective-relevant sentences, which are then summarized using a pretrained BART-CNN model. The approach achieved 12th place among 100 teams in the shared task, demonstrating computational efficiency and contextual accuracy. By leveraging pretrained summarization models, this work advances medical CQA research and contributes to clinical decision support systems.
- Abstract(参考訳): PerAnsSumm 2025の課題は、パースペクティブを意識した医療回答の要約に焦点を当てている(Agarwal et al , 2025)。
本研究では、オープンな医療コミュニティの質問回答(CQA)を分類・要約するために、Snorkel-BART-SVMパイプラインを使用した数ショットの学習フレームワークを提案する。
SVMモデルは、ゼロショット学習を強化するために、Snorkelを通じて弱い監督でトレーニングされる。
抽出的分類は、視点関連文を特定し、事前訓練されたBART-CNNモデルを用いて要約する。
このアプローチは共有タスクにおける100チームの中で12位を獲得し、計算効率とコンテキスト精度を実証した。
トレーニング済みの要約モデルを活用することにより、医療用CQA研究を進展させ、臨床意思決定支援システムに貢献する。
関連論文リスト
- Improving Clinical Question Answering with Multi-Task Learning: A Joint Approach for Answer Extraction and Medical Categorization [2.380499804323775]
回答抽出と医療分類の両面でCQAモデルを共同で訓練するマルチタスク学習フレームワークを提案する。
回答の範囲の予測に加えて、我々のモデルは、診断、治療、症状、処置、実験報告の5つの標準化された医療カテゴリに分類する。
その結果、MTLは標準微調整に比べてF1スコアを2.2%改善し、解答分類の精度は90.7%向上した。
論文 参考訳(メタデータ) (2025-02-18T18:20:37Z) - Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - SemEval-2024 Task 2: Safe Biomedical Natural Language Inference for Clinical Trials [13.59675117792588]
SemEval-2024 Task 2: Safe Biomedical Natural Language Inference for ClinicalTrialsについて紹介する。
我々の貢献には、改良されたNLI4CT-Pデータセット(Natural Language Inference for Clinical Trials - Perturbed)が含まれる。
このタスクに登録された参加者は合計106人であり、1200以上の個人申請と25のシステム概要書に貢献している。
このイニシアチブは、医療におけるNLIモデルの堅牢性と適用性を向上し、臨床意思決定におけるより安全で信頼性の高いAIアシストを保証することを目的としている。
論文 参考訳(メタデータ) (2024-04-07T13:58:41Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Customizing General-Purpose Foundation Models for Medical Report
Generation [64.31265734687182]
ラベル付き医用画像-レポートペアの不足は、ディープニューラルネットワークや大規模ニューラルネットワークの開発において大きな課題となっている。
本稿では,コンピュータビジョンと自然言語処理の基盤モデル (FM) として,市販の汎用大規模事前学習モデルのカスタマイズを提案する。
論文 参考訳(メタデータ) (2023-06-09T03:02:36Z) - CUED at ProbSum 2023: Hierarchical Ensemble of Summarization Models [8.237131071390715]
我々は,患者の医療進歩ノートを限られたデータセットで要約する上での課題について考察する。
バイオNLPワークショップ2023における課題リスト要約(Shared Task 1A)では,臨床T5の微調整による765件の診療ノートが,他の抽出的,抽象的,ゼロショットベースラインよりも優れていることを示した。
論文 参考訳(メタデータ) (2023-06-08T16:08:10Z) - Overview of the Problem List Summarization (ProbSum) 2023 Shared Task on
Summarizing Patients' Active Diagnoses and Problems from Electronic Health
Record Progress Notes [5.222442967088892]
BioNLP Workshop 2023は、問題リスト要約に関する共有タスクの立ち上げを開始した(ProbSum)。
参加者の目標は,重篤な患者の入院から収集した毎日のケアノートからのインプットを用いて,診断と問題のリストを作成するモデルを開発することである。
8つのチームが最終システムを共有タスクのリーダーボードに提出しました。
論文 参考訳(メタデータ) (2023-06-08T15:19:57Z) - PULSAR: Pre-training with Extracted Healthcare Terms for Summarising
Patients' Problems and Data Augmentation with Black-box Large Language Models [25.363775123262307]
問題リストの形で患者の問題を自動的に要約することで、ステークホルダーが患者の状態を理解し、作業負荷と認知バイアスを減らすのに役立つ。
BioNLP 2023 共有タスク1Aは、入院中の提供者の進捗状況から診断と問題のリストを作成することに焦点を当てている。
1つのコンポーネントは、データ拡張のために大きな言語モデル(LLM)を使用し、もう1つは、リストとして要約された患者の問題を生成するための、新しいトレーニング済みの目標を持つ抽象的な要約 LLM である。
私たちのアプローチは、共有タスクへの全提出のうち、第2位でした。
論文 参考訳(メタデータ) (2023-06-05T10:17:50Z) - PMC-VQA: Visual Instruction Tuning for Medical Visual Question Answering [56.25766322554655]
MedVQA(Medicical Visual Question Answering)は、診断精度と医療提供を向上する重要な機会を提供する。
本稿では,事前学習した視覚エンコーダの視覚情報を大規模言語モデルに整列させることにより,医用視覚理解のための生成モデルを提案する。
PMC-VQAで提案されたモデルをトレーニングし、VQA-RAD、SLAKE、Image-Clef 2019など、複数の公開ベンチマークで微調整する。
論文 参考訳(メタデータ) (2023-05-17T17:50:16Z) - ITTC @ TREC 2021 Clinical Trials Track [54.141379782822206]
本課題は、患者の入院ノートの要約を構成するトピックに有効な臨床試験を適合させる問題に焦点を当てる。
NLP手法を用いて試行とトピックの表現方法を探索し、共通の検索モデルを用いて各トピックに関連するトライアルのランク付けリストを生成する。
提案されたすべての実行の結果は、すべてのトピックの中央値よりもはるかに上回っていますが、改善の余地はたくさんあります。
論文 参考訳(メタデータ) (2022-02-16T04:56:47Z) - Two-Stream Consensus Network: Submission to HACS Challenge 2021
Weakly-Supervised Learning Track [78.64815984927425]
弱い監督による時間的行動ローカライゼーションの目標は、ビデオの興味ある動作を時間的に特定し、分類することである。
この課題では,2ストリームコンセンサスネットワーク(TSCN)を主要なフレームワークとして採用しています。
この課題では,本手法が今後の学術研究のベースラインとなることを期待して,第2位にランクインした。
論文 参考訳(メタデータ) (2021-06-21T03:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。