論文の概要: MaLei at MultiClinSUM: Summarisation of Clinical Documents using Perspective-Aware Iterative Self-Prompting with LLMs
- arxiv url: http://arxiv.org/abs/2509.07622v1
- Date: Tue, 09 Sep 2025 11:52:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.289511
- Title: MaLei at MultiClinSUM: Summarisation of Clinical Documents using Perspective-Aware Iterative Self-Prompting with LLMs
- Title(参考訳): MultiClinSUMにおけるMaLei : LLMを用いたパースペクティブ・イテレーティブ・セルフプロンピングによる臨床文書の要約
- Authors: Libo Ren, Yee Man Ng, Lifeng Han,
- Abstract要約: 本稿では,MultiClinSUM共有タスクにおける臨床事例文書の要約手法について述べる。
我々はLLMにタスク固有のプロンプトを生成するよう依頼することで,大規模言語モデル(LLM)に反復的自己プロンプト手法を適用した。
語彙と埋め込み空間のメトリクスであるROUGEとBERTスコアを用いて、エポックによるモデル微調整をガイドした。
- 参考スコア(独自算出の注目度): 5.40185721303932
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Efficient communication between patients and clinicians plays an important role in shared decision-making. However, clinical reports are often lengthy and filled with clinical jargon, making it difficult for domain experts to identify important aspects in the document efficiently. This paper presents the methodology we applied in the MultiClinSUM shared task for summarising clinical case documents. We used an Iterative Self-Prompting technique on large language models (LLMs) by asking LLMs to generate task-specific prompts and refine them via example-based few-shot learning. Furthermore, we used lexical and embedding space metrics, ROUGE and BERT-score, to guide the model fine-tuning with epochs. Our submission using perspective-aware ISP on GPT-4 and GPT-4o achieved ROUGE scores (46.53, 24.68, 30.77) and BERTscores (87.84, 83.25, 85.46) for (P, R, F1) from the official evaluation on 3,396 clinical case reports from various specialties extracted from open journals. The high BERTscore indicates that the model produced semantically equivalent output summaries compared to the references, even though the overlap at the exact lexicon level is lower, as reflected in the lower ROUGE scores. This work sheds some light on how perspective-aware ISP (PA-ISP) can be deployed for clinical report summarisation and support better communication between patients and clinicians.
- Abstract(参考訳): 患者と臨床医の効果的なコミュニケーションは意思決定の共有において重要な役割を担っている。
しかし、臨床報告は長く、臨床用語で満たされることが多いため、ドメインの専門家が文書の重要な側面を効率的に特定することは困難である。
本稿では,MultiClinSUM共有タスクにおける臨床事例文書の要約手法について述べる。
大規模言語モデル (LLM) 上で反復的自己プロンピング手法を用いて, LLM にタスク固有のプロンプトを生成し,サンプルベースによる少数ショット学習によってそれらを洗練させる。
さらに,語彙および埋め込み空間の指標であるROUGEとBERTスコアを用いて,エポックを用いたモデル微調整を指導した。
GPT-4 および GPT-4o 上での視点対応ISP を用いた提案は,オープンジャーナルから抽出した各種専門分野の3,396 件の臨床報告から,ROUGE スコア (46.53, 24.68, 30.77) とBERTスコア (87.84, 83.25, 85.46) を (P, R, F1) に対して公式評価した。
高いBERTスコアは、下のROUGEスコアに反映されるように、正確なレキシコンレベルの重なり合いが低いにもかかわらず、モデルが参照よりも意味的に等価な出力サマリーを生成することを示している。
この研究は、臨床報告の要約のために、パースペクティブ・アウェア・ISP(PA-ISP)をどのように展開し、患者と臨床医とのコミュニケーションを改善するかに光を当てている。
関連論文リスト
- A dataset and benchmark for hospital course summarization with adapted large language models [4.091402760759184]
大規模言語モデル(LLM)は、現実世界のタスクを自動化する際、顕著な能力を示しているが、医療応用の能力は示されていない。
臨床ノートと短い病院コースをカプセル化したMIMIC-IV-BHC(MIMIC-IV-BHC)を導入した。
臨床ノートを入力として,3つのオープンソースLSMと2つの独自LSMに対して,プロンプトベース(文脈内学習)と微調整ベースの適応戦略を適用した。
論文 参考訳(メタデータ) (2024-03-08T23:17:55Z) - Attribute Structuring Improves LLM-Based Evaluation of Clinical Text Summaries [56.31117605097345]
大規模言語モデル(LLM)は、正確な臨床テキスト要約を生成する可能性を示しているが、根拠付けと評価に関する問題に苦慮している。
本稿では、要約評価プロセスを構成するAttribute Structuring(AS)を用いた一般的な緩和フレームワークについて検討する。
ASは、臨床テキスト要約における人間のアノテーションと自動メトリクスの対応性を一貫して改善する。
論文 参考訳(メタデータ) (2024-03-01T21:59:03Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Adapted Large Language Models Can Outperform Medical Experts in Clinical Text Summarization [8.456700096020601]
大規模言語モデル (LLM) は自然言語処理 (NLP) において有望であるが, 様々な臨床要約タスクにおける有効性は証明されていない。
本研究では,4つの臨床要約課題にまたがる8つのLCMに適応法を適用した。
10名の医師による臨床読影者を対象に, 要約, 完全性, 正当性, 簡潔性を評価した。ほとんどの場合, ベスト適応LSMの要約は, 医用専門家の要約と比べ, 同等(45%), 上等(36%)である。
論文 参考訳(メタデータ) (2023-09-14T05:15:01Z) - Development and validation of a natural language processing algorithm to
pseudonymize documents in the context of a clinical data warehouse [53.797797404164946]
この研究は、この領域でツールやリソースを共有する際に直面する困難を浮き彫りにしている。
臨床文献のコーパスを12種類に分類した。
私たちは、ディープラーニングモデルと手動ルールの結果をマージして、ハイブリッドシステムを構築します。
論文 参考訳(メタデータ) (2023-03-23T17:17:46Z) - Self-supervised Answer Retrieval on Clinical Notes [68.87777592015402]
本稿では,ドメイン固有パスマッチングのためのトランスフォーマー言語モデルをトレーニングするためのルールベースのセルフスーパービジョンであるCAPRを紹介する。
目的をトランスフォーマーベースの4つのアーキテクチャ、コンテキスト文書ベクトル、ビ-、ポリエンコーダ、クロスエンコーダに適用する。
本稿では,ドメイン固有パスの検索において,CAPRが強いベースラインを上回り,ルールベースおよび人間ラベル付きパスを効果的に一般化することを示す。
論文 参考訳(メタデータ) (2021-08-02T10:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。