論文の概要: Topic-aware Large Language Models for Summarizing the Lived Healthcare Experiences Described in Health Stories
- arxiv url: http://arxiv.org/abs/2510.24765v1
- Date: Thu, 23 Oct 2025 16:52:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.402682
- Title: Topic-aware Large Language Models for Summarizing the Lived Healthcare Experiences Described in Health Stories
- Title(参考訳): トピック認識型大規模言語モデルによる健康物語の生医療経験の要約
- Authors: Maneesh Bilalpur, Megan Hamm, Young Ji Lee, Natasha Norman, Kathleen M. McTigue, Yanshan Wang,
- Abstract要約: 大きな言語モデル(LLM)は、潜在的に根底にある要因と介入の道を見つけることができる。
我々は、アフリカ系アメリカ人の物語作家の物語を、話題を意識した階層的に要約した。
アプローチでは、健康行動、医療チームメンバーとの交流、介護、症状管理など、AAの体験関連トピックを特定した。
- 参考スコア(独自算出の注目度): 2.7664241386558754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Storytelling is a powerful form of communication and may provide insights into factors contributing to gaps in healthcare outcomes. To determine whether Large Language Models (LLMs) can identify potential underlying factors and avenues for intervention, we performed topic-aware hierarchical summarization of narratives from African American (AA) storytellers. Fifty transcribed stories of AA experiences were used to identify topics in their experience using the Latent Dirichlet Allocation (LDA) technique. Stories about a given topic were summarized using an open-source LLM-based hierarchical summarization approach. Topic summaries were generated by summarizing across story summaries for each story that addressed a given topic. Generated topic summaries were rated for fabrication, accuracy, comprehensiveness, and usefulness by the GPT4 model, and the model's reliability was validated against the original story summaries by two domain experts. 26 topics were identified in the fifty AA stories. The GPT4 ratings suggest that topic summaries were free from fabrication, highly accurate, comprehensive, and useful. The reliability of GPT ratings compared to expert assessments showed moderate to high agreement. Our approach identified AA experience-relevant topics such as health behaviors, interactions with medical team members, caregiving and symptom management, among others. Such insights could help researchers identify potential factors and interventions by learning from unstructured narratives in an efficient manner-leveraging the communicative power of storytelling. The use of LDA and LLMs to identify and summarize the experience of AA individuals suggests a variety of possible avenues for health research and possible clinical improvements to support patients and caregivers, thereby ultimately improving health outcomes.
- Abstract(参考訳): ストーリーテリングは強力なコミュニケーション形態であり、医療結果のギャップに寄与する要因についての洞察を提供する可能性がある。
大規模言語モデル(LLM)が潜在的要因と介入の道筋を識別できるかどうかを判断するために,我々はアフリカ系アメリカ人(AA)ストーリーテラーの物語をトピックアウェアで階層的に要約した。
遅延ディリクレ割当 (LDA) 技術を用いて, AA経験の50の書き起こし記事を用いて, 経験中のトピックを識別した。
トピックに関するストーリーは、オープンソースのLLMベースの階層的要約アプローチを使用して要約された。
トピックの要約は、与えられたトピックに対処する各ストーリーについて、ストーリーの要約を要約することによって生成される。
生成したトピック要約は、GPT4モデルにより作成、正確性、包括性、有用性に評価され、モデルの信頼性は、2つのドメインの専門家によって元のストーリー要約に対して検証された。
AA50話で26のトピックが特定された。
GPT4の評価は、トピックの要約は、作成から解放され、非常に正確で、包括的で有用であったことを示唆している。
GPT評価の信頼性は専門家評価と比較して中程度から高い一致を示した。
アプローチでは、健康行動、医療チームメンバーとの交流、介護や症状管理など、AAの体験関連トピックを特定した。
このような洞察は、研究者が非構造的な物語から学習することで潜在的な要因や介入を効果的に把握し、ストーリーテリングのコミュニケーション力を高めるのに役立つかもしれない。
LDA と LLM を用いて、AA 個人の経験を識別し、要約することで、健康研究の様々な道筋と、患者や介護者を支援するための臨床改善の可能性を示唆し、最終的に健康結果を改善することができる。
関連論文リスト
- MaLei at MultiClinSUM: Summarisation of Clinical Documents using Perspective-Aware Iterative Self-Prompting with LLMs [5.40185721303932]
本稿では,MultiClinSUM共有タスクにおける臨床事例文書の要約手法について述べる。
我々はLLMにタスク固有のプロンプトを生成するよう依頼することで,大規模言語モデル(LLM)に反復的自己プロンプト手法を適用した。
語彙と埋め込み空間のメトリクスであるROUGEとBERTスコアを用いて、エポックによるモデル微調整をガイドした。
論文 参考訳(メタデータ) (2025-09-09T11:52:16Z) - TAMA: A Human-AI Collaborative Thematic Analysis Framework Using Multi-Agent LLMs for Clinical Interviews [54.35097932763878]
Thematic Analysis (TA) は、構造化されていないテキストデータの潜在意味を明らかにするために広く使われている定性的手法である。
本稿では,多エージェントLEMを用いた人間とAIの協調的テーマ分析フレームワークTAMAを提案する。
TAMA は既存の LLM 支援TA アプローチよりも優れており,高い主題的ヒット率,カバレッジ,独特性を実現している。
論文 参考訳(メタデータ) (2025-03-26T15:58:16Z) - Attribute Structuring Improves LLM-Based Evaluation of Clinical Text Summaries [56.31117605097345]
大規模言語モデル(LLM)は、正確な臨床テキスト要約を生成する可能性を示しているが、根拠付けと評価に関する問題に苦慮している。
本稿では、要約評価プロセスを構成するAttribute Structuring(AS)を用いた一般的な緩和フレームワークについて検討する。
ASは、臨床テキスト要約における人間のアノテーションと自動メトリクスの対応性を一貫して改善する。
論文 参考訳(メタデータ) (2024-03-01T21:59:03Z) - Adapted Large Language Models Can Outperform Medical Experts in Clinical Text Summarization [8.456700096020601]
大規模言語モデル (LLM) は自然言語処理 (NLP) において有望であるが, 様々な臨床要約タスクにおける有効性は証明されていない。
本研究では,4つの臨床要約課題にまたがる8つのLCMに適応法を適用した。
10名の医師による臨床読影者を対象に, 要約, 完全性, 正当性, 簡潔性を評価した。ほとんどの場合, ベスト適応LSMの要約は, 医用専門家の要約と比べ, 同等(45%), 上等(36%)である。
論文 参考訳(メタデータ) (2023-09-14T05:15:01Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - DeltaScore: Fine-Grained Story Evaluation with Perturbations [69.33536214124878]
DELTASCOREは,ニュアンスストーリーの側面の評価に摂動技術を用いた新しい手法である。
私たちの中心的な命題は、物語が特定の側面(例えば、流感)で興奮する程度は、特定の摂動に対するその感受性の大きさと相関している、と仮定している。
事前学習言語モデルを用いて,前摂動状態と後摂動状態の確率差を計算することにより,アスペクトの品質を測定する。
論文 参考訳(メタデータ) (2023-03-15T23:45:54Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - A Data-driven Latent Semantic Analysis for Automatic Text Summarization
using LDA Topic Modelling [0.0]
本研究では、トピックモデリングを行うために使用されるLDA(Latent Dirichlet Allocation)アプローチを提案する。
可視化は主要なトピックを概観し、個々のトピックに対する深い意味を許容し、帰結させる。
その結果,処理文書中の話題の出現確率を考慮し,純粋にランク付けされた用語が示唆された。
論文 参考訳(メタデータ) (2022-07-23T11:04:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。