論文の概要: Clinically meaningful timeline summarisation in social media for mental
health monitoring
- arxiv url: http://arxiv.org/abs/2401.16240v1
- Date: Mon, 29 Jan 2024 15:42:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 14:17:17.640793
- Title: Clinically meaningful timeline summarisation in social media for mental
health monitoring
- Title(参考訳): 精神保健モニタリングのためのソーシャルメディアにおける臨床的意義のあるタイムライン要約
- Authors: Jiayu Song, Jenny Chim, Adam Tsakalidis, Julia Ive, Dana Atzil-Slonim,
Maria Liakata
- Abstract要約: 本稿では,メンタルヘルスモニタリングに適したソーシャルメディア利用者のタイムラインを臨床的に有意義に要約する新たな課題を紹介する。
両高レベル情報からなる2層要約を生成する,教師なし抽象要約のための新しい手法を開発した。
重要な方法論の新規性は、長文を表現するために適応された階層的変分オートエンコーダ(VAE)のバージョンに基づいて、タイムラインの要約コンポーネントから得られる。
結果のタイムライン要約はLLM(LLaMA-2)に入力され、命令プロンプトによって得られた高レベル情報とユーザからの対応する証拠の両方を含む最終要約を生成する。
- 参考スコア(独自算出の注目度): 14.819625185358912
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the new task of clinically meaningful summarisation of social
media user timelines, appropriate for mental health monitoring. We develop a
novel approach for unsupervised abstractive summarisation that produces a
two-layer summary consisting of both high-level information, covering aspects
useful to clinical experts, as well as accompanying time sensitive evidence
from a user's social media timeline. A key methodological novelty comes from
the timeline summarisation component based on a version of hierarchical
variational autoencoder (VAE) adapted to represent long texts and guided by
LLM-annotated key phrases. The resulting timeline summary is input into a LLM
(LLaMA-2) to produce the final summary containing both the high level
information, obtained through instruction prompting, as well as corresponding
evidence from the user's timeline. We assess the summaries generated by our
novel architecture via automatic evaluation against expert written summaries
and via human evaluation with clinical experts, showing that timeline
summarisation by TH-VAE results in logically coherent summaries rich in
clinical utility and superior to LLM-only approaches in capturing changes over
time.
- Abstract(参考訳): 本稿では,メンタルヘルスモニタリングに適したソーシャルメディア利用者のタイムラインを臨床的に有意義に要約する新たな課題を紹介する。
本稿では,高レベル情報と臨床専門家に有用な側面を包括する2層要約と,ユーザのソーシャルメディアタイムラインからの時間依存性の証拠を関連づけた非教師なし抽象要約手法を提案する。
主要な方法論的ノベルティは、長文を表すために適応された階層的変分オートエンコーダ(VAE)のバージョンに基づいて、LLMアノテーション付きキーフレーズでガイドされるタイムライン要約コンポーネントから得られる。
結果のタイムライン要約はLLM(LLaMA-2)に入力され、命令プロンプトによって得られた上位情報と、ユーザのタイムラインからの対応する証拠の両方を含む最終要約を生成する。
本研究は,新規建築のサマリーを,専門家によるサマリーの自動評価,臨床専門家による人的評価を通じて評価し,TH-VAEによる時系列サマリー化が臨床応用に富む論理的コヒーレントなサマリーをもたらすことを示す。
関連論文リスト
- Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - Large Language Models in the Clinic: A Comprehensive Benchmark [63.21278434331952]
診療所の大規模言語モデル(LLM)をよりよく理解するためのベンチマークであるClimateBenchを構築した。
まず、さまざまな臨床言語の生成、理解、推論タスクを含む11の既存のデータセットを収集します。
次に,現実の実践において複雑だが一般的である6つの新しいデータセットと臨床タスクを構築した。
ゼロショット設定と少数ショット設定の両方で、20個のLDMを広範囲に評価する。
論文 参考訳(メタデータ) (2024-04-25T15:51:06Z) - Attribute Structuring Improves LLM-Based Evaluation of Clinical Text
Summaries [62.32403630651586]
大規模言語モデル(LLM)は、正確な臨床テキスト要約を生成する可能性を示しているが、根拠付けと評価に関する問題に苦慮している。
本稿では、要約評価プロセスを構成するAttribute Structuring(AS)を用いた一般的な緩和フレームワークについて検討する。
ASは、臨床テキスト要約における人間のアノテーションと自動メトリクスの対応性を一貫して改善する。
論文 参考訳(メタデータ) (2024-03-01T21:59:03Z) - EHRNoteQA: An LLM Benchmark for Real-World Clinical Practice Using Discharge Summaries [9.031182965159976]
大規模言語モデル(LLM)は、大規模で複雑なデータを効率的に分析する可能性を示している。
我々は,MIMIC-IV EHR上に構築された新しいベンチマークであるEHRNoteQAを紹介した。
EHRNoteQAには、複数の放電サマリーにまたがる情報を必要とし、実際の臨床検査の複雑さと多様性を反映した8つの多様なトピックをカバーする質問が含まれている。
論文 参考訳(メタデータ) (2024-02-25T09:41:50Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Adapted Large Language Models Can Outperform Medical Experts in Clinical Text Summarization [8.456700096020601]
大規模言語モデル (LLM) は自然言語処理 (NLP) において有望であるが, 様々な臨床要約タスクにおける有効性は証明されていない。
本研究では,4つの臨床要約課題にまたがる8つのLCMに適応法を適用した。
10名の医師による臨床読影者を対象に, 要約, 完全性, 正当性, 簡潔性を評価した。ほとんどの場合, ベスト適応LSMの要約は, 医用専門家の要約と比べ, 同等(45%), 上等(36%)である。
論文 参考訳(メタデータ) (2023-09-14T05:15:01Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - A Meta-Evaluation of Faithfulness Metrics for Long-Form Hospital-Course
Summarization [2.8575516056239576]
病院入院の長期的臨床要約は、臨床医と患者の両方に役立つ可能性から、現実的な重要性を持っている。
本研究は,患者の短期病院講座のモデル作成要約に対して,人体アノテーションの微粒化に対する忠実度指標をベンチマークした。
論文 参考訳(メタデータ) (2023-03-07T14:57:06Z) - Discharge Summary Hospital Course Summarisation of In Patient Electronic
Health Record Text with Clinical Concept Guided Deep Pre-Trained Transformer
Models [1.1393603788068778]
ブリーフ病院コース(英: Brief Hospital Course、略称:BHC)は、病院全体の出会いの簡潔なサマリーであり、退院サマリーに埋め込まれている。
深層学習要約モデルの性能を実証するBHC要約法について述べる。
論文 参考訳(メタデータ) (2022-11-14T05:39:45Z) - Self-supervised Answer Retrieval on Clinical Notes [68.87777592015402]
本稿では,ドメイン固有パスマッチングのためのトランスフォーマー言語モデルをトレーニングするためのルールベースのセルフスーパービジョンであるCAPRを紹介する。
目的をトランスフォーマーベースの4つのアーキテクチャ、コンテキスト文書ベクトル、ビ-、ポリエンコーダ、クロスエンコーダに適用する。
本稿では,ドメイン固有パスの検索において,CAPRが強いベースラインを上回り,ルールベースおよび人間ラベル付きパスを効果的に一般化することを示す。
論文 参考訳(メタデータ) (2021-08-02T10:42:52Z) - Generating SOAP Notes from Doctor-Patient Conversations Using Modular
Summarization Techniques [43.13248746968624]
私たちは、深い要約モデルを利用してSOAPノートを生成するための最初の完全なパイプラインを紹介します。
本稿では,各要約部に関連する重要な発話を抽出するアルゴリズムであるCluster2Sentを提案する。
本研究は,要約コーパスを構築する際に,要約をセクションに構造化し,証拠を注釈する利点について述べる。
論文 参考訳(メタデータ) (2020-05-04T19:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。