論文の概要: Combining Hierachical VAEs with LLMs for clinically meaningful timeline
summarisation in social media
- arxiv url: http://arxiv.org/abs/2401.16240v2
- Date: Fri, 16 Feb 2024 12:42:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 19:23:05.518289
- Title: Combining Hierachical VAEs with LLMs for clinically meaningful timeline
summarisation in social media
- Title(参考訳): LLMとヒエラキカルVAEの併用によるソーシャルメディアのタイムライン要約
- Authors: Jiayu Song, Jenny Chim, Adam Tsakalidis, Julia Ive, Dana Atzil-Slonim,
Maria Liakata
- Abstract要約: 本稿では,階層型VAEとLPM(LlaMA-2)を組み合わせて,ソーシャルメディア利用者のタイムラインから臨床的に意味のある要約を生成するハイブリッド抽象要約手法を提案する。
得られた要約を,専門家に対する自動評価と臨床専門家による人的評価により評価し,TH-VAEによる時系列要約により,臨床的有用性に富む事実的かつ論理的に整合した要約が得られ,経時的変化を捉えたLCMのみのアプローチよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 14.819625185358912
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a hybrid abstractive summarisation approach combining
hierarchical VAE with LLMs (LlaMA-2) to produce clinically meaningful summaries
from social media user timelines, appropriate for mental health monitoring. The
summaries combine two different narrative points of view: clinical insights in
third person useful for a clinician are generated by feeding into an LLM
specialised clinical prompts, and importantly, a temporally sensitive
abstractive summary of the user's timeline in first person, generated by a
novel hierarchical variational autoencoder, TH-VAE. We assess the generated
summaries via automatic evaluation against expert summaries and via human
evaluation with clinical experts, showing that timeline summarisation by TH-VAE
results in more factual and logically coherent summaries rich in clinical
utility and superior to LLM-only approaches in capturing changes over time.
- Abstract(参考訳): 本稿では,階層的vaeとllms(llama-2)を組み合わせた統合的要約手法を導入し,メンタルヘルスモニタリングに適したソーシャルメディアユーザのタイムラインから臨床的に有意義な要約を生成する。
臨床医に有用な第3者の臨床的洞察は、臨床のプロンプトを専門とするLSMに入力することで生成され、さらに、新規な階層的変動オートエンコーダTH-VAEにより、第1者のユーザのタイムラインの時間的に敏感な抽象的要約が生成される。
得られた要約を,専門家に対する自動評価と臨床専門家による人的評価により評価し,TH-VAEによる時系列要約により,臨床的有用性に富む事実的かつ論理的に整合した要約が得られ,経時的変化を捉えたLCMのみのアプローチよりも優れていることを示す。
関連論文リスト
- A Benchmark of Domain-Adapted Large Language Models for Generating Brief
Hospital Course Summaries [4.201332098927781]
大規模言語モデル(LLM)は、現実世界のタスクを自動化する際、顕著な能力を示しているが、医療応用の能力は示されていない。
我々はMIMIC-IVノートから抽出した前処理データセットからなる新しいベンチマークを提案する。
臨床ノートからBHC合成を改善するために,2つの汎用LSMと3つの医療適応LSMの性能を評価した。
論文 参考訳(メタデータ) (2024-03-08T23:17:55Z) - Attribute Structuring Improves LLM-Based Evaluation of Clinical Text
Summaries [62.32403630651586]
大規模言語モデル(LLM)は、正確な臨床テキスト要約を生成する可能性を示しているが、根拠付けと評価に関する問題に苦慮している。
本稿では、要約評価プロセスを構成するAttribute Structuring(AS)を用いた一般的な緩和フレームワークについて検討する。
ASは、臨床テキスト要約における人間のアノテーションと自動メトリクスの対応性を一貫して改善する。
論文 参考訳(メタデータ) (2024-03-01T21:59:03Z) - FactPICO: Factuality Evaluation for Plain Language Summarization of
Medical Evidence [48.72670312847365]
本稿では,医療用テキストのプレーン言語要約のためのファクトPICOを提案する。
3つのランダム化制御試験(RCT)から生成される抽象語の345のプレーン言語要約で構成されている。
本研究は,これらのサマリーにおけるRCTの重要要素の事実と,それらに関する報告された知見について評価する。
論文 参考訳(メタデータ) (2024-02-18T04:45:01Z) - Summarization is (Almost) Dead [49.360752383801305]
我々は,大規模言語モデル(LLM)のゼロショット生成能力を評価するため,新しいデータセットを開発し,人間による評価実験を行う。
本研究は, 微調整モデルにより生成した要約や要約よりも, LLM生成要約に対する人間の評価において, 明らかな優位性を示した。
論文 参考訳(メタデータ) (2023-09-18T08:13:01Z) - Adapted Large Language Models Can Outperform Medical Experts in Clinical
Text Summarization [8.58821737720852]
大規模言語モデル (LLM) は自然言語処理 (NLP) において有望であるが, 様々な臨床要約タスクにおける有効性は証明されていない。
本研究では,4つの臨床要約課題にまたがる8つのLCMに適応法を適用した。
10名の医師による臨床読影者を対象に, 要約, 完全性, 正当性, 簡潔性を評価した。ほとんどの場合, ベスト適応LSMの要約は, 医用専門家の要約と比べ, 同等(45%), 上等(36%)である。
論文 参考訳(メタデータ) (2023-09-14T05:15:01Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - A Meta-Evaluation of Faithfulness Metrics for Long-Form Hospital-Course
Summarization [2.8575516056239576]
病院入院の長期的臨床要約は、臨床医と患者の両方に役立つ可能性から、現実的な重要性を持っている。
本研究は,患者の短期病院講座のモデル作成要約に対して,人体アノテーションの微粒化に対する忠実度指標をベンチマークした。
論文 参考訳(メタデータ) (2023-03-07T14:57:06Z) - Discharge Summary Hospital Course Summarisation of In Patient Electronic
Health Record Text with Clinical Concept Guided Deep Pre-Trained Transformer
Models [1.1393603788068778]
ブリーフ病院コース(英: Brief Hospital Course、略称:BHC)は、病院全体の出会いの簡潔なサマリーであり、退院サマリーに埋め込まれている。
深層学習要約モデルの性能を実証するBHC要約法について述べる。
論文 参考訳(メタデータ) (2022-11-14T05:39:45Z) - Self-supervised Answer Retrieval on Clinical Notes [68.87777592015402]
本稿では,ドメイン固有パスマッチングのためのトランスフォーマー言語モデルをトレーニングするためのルールベースのセルフスーパービジョンであるCAPRを紹介する。
目的をトランスフォーマーベースの4つのアーキテクチャ、コンテキスト文書ベクトル、ビ-、ポリエンコーダ、クロスエンコーダに適用する。
本稿では,ドメイン固有パスの検索において,CAPRが強いベースラインを上回り,ルールベースおよび人間ラベル付きパスを効果的に一般化することを示す。
論文 参考訳(メタデータ) (2021-08-02T10:42:52Z) - Generating SOAP Notes from Doctor-Patient Conversations Using Modular
Summarization Techniques [43.13248746968624]
私たちは、深い要約モデルを利用してSOAPノートを生成するための最初の完全なパイプラインを紹介します。
本稿では,各要約部に関連する重要な発話を抽出するアルゴリズムであるCluster2Sentを提案する。
本研究は,要約コーパスを構築する際に,要約をセクションに構造化し,証拠を注釈する利点について述べる。
論文 参考訳(メタデータ) (2020-05-04T19:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。