論文の概要: Position: Thematic Analysis of Unstructured Clinical Transcripts with Large Language Models
- arxiv url: http://arxiv.org/abs/2509.14597v2
- Date: Sun, 28 Sep 2025 18:36:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.78166
- Title: Position: Thematic Analysis of Unstructured Clinical Transcripts with Large Language Models
- Title(参考訳): 位置: 大規模言語モデルを用いた非構造的臨床転写の理論的解析
- Authors: Seungjun Yi, Joakim Nguyen, Terence Lim, Andrew Well, Joseph Skrovan, Mehak Beri, YongGeon Lee, Kavita Radhakrishnan, Liu Leqi, Mia Markey, Ying Ding,
- Abstract要約: LLM(Large Language Model)は、構造化されていない臨床転写のセマンティック解析をサポートする。
既存の評価方法は大きく異なり、進歩を妨げ、研究全体で有意義なベンチマークを防ぐ。
本稿では,妥当性,信頼性,解釈可能性の3つの側面に着目した評価フレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.398283020969301
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This position paper examines how large language models (LLMs) can support thematic analysis of unstructured clinical transcripts, a widely used but resource-intensive method for uncovering patterns in patient and provider narratives. We conducted a systematic review of recent studies applying LLMs to thematic analysis, complemented by an interview with a practicing clinician. Our findings reveal that current approaches remain fragmented across multiple dimensions including types of thematic analysis, datasets, prompting strategies and models used, most notably in evaluation. Existing evaluation methods vary widely (from qualitative expert review to automatic similarity metrics), hindering progress and preventing meaningful benchmarking across studies. We argue that establishing standardized evaluation practices is critical for advancing the field. To this end, we propose an evaluation framework centered on three dimensions: validity, reliability, and interpretability.
- Abstract(参考訳): 本稿では, 大規模言語モデル (LLM) が, 患者や提供者の物語のパターンを明らかにするために広く用いられているが, 資源集約的な手法である, 非構造的臨床転写の理論的解析をいかに支援できるかを考察する。
本研究は, LLMをテーマ分析に適用した最近の研究の体系的レビューを行い, 臨床医へのインタビューを補完した。
以上の結果から,現在のアプローチは,テーマ分析やデータセット,戦略やモデルの利用促進,特に評価において,複数の次元にわたって断片化されていることが明らかとなった。
既存の評価手法は、定性的な専門家のレビューから自動類似度指標まで、広範囲に渡り、進歩を妨げるとともに、研究全体で有意義なベンチマークを防ぐ。
標準化された評価プラクティスの確立は、分野を前進させる上で不可欠である、と我々は主張する。
そこで本研究では,妥当性,信頼性,解釈可能性の3つの側面に着目した評価フレームワークを提案する。
関連論文リスト
- Clinical NLP with Attention-Based Deep Learning for Multi-Disease Prediction [44.0876796031468]
本稿では,電子健康記録テキストの非構造的性質と高次元意味論的複雑さがもたらす課題について論じる。
情報抽出と多ラベル病予測のための統合モデリングを実現するために,注意機構に基づく深層学習手法を提案する。
論文 参考訳(メタデータ) (2025-07-02T07:45:22Z) - Auto-TA: Towards Scalable Automated Thematic Analysis (TA) via Multi-Agent Large Language Models with Reinforcement Learning [3.3212706551453155]
先天性心疾患(CHD: Congenital heart disease)は、従来の臨床指標では示されていない、複雑で寿命の長い課題である。
本稿では,臨床物語のエンド・ツー・エンドのセマンティック分析を行う,完全自動大規模言語モデル(LLM)パイプラインを提案する。
論文 参考訳(メタデータ) (2025-06-30T16:02:28Z) - Named Clinical Entity Recognition Benchmark [2.9332007863461893]
本報告では, 名前付き臨床エンティティ認識ベンチマークを紹介する。
臨床物語から構造化された情報を抽出する重要な自然言語処理(NLP)タスクに対処する。
リーダーボードは多様な言語モデルを評価するための標準化されたプラットフォームを提供する。
論文 参考訳(メタデータ) (2024-10-07T14:00:18Z) - Attribute Structuring Improves LLM-Based Evaluation of Clinical Text Summaries [56.31117605097345]
大規模言語モデル(LLM)は、正確な臨床テキスト要約を生成する可能性を示しているが、根拠付けと評価に関する問題に苦慮している。
本稿では、要約評価プロセスを構成するAttribute Structuring(AS)を用いた一般的な緩和フレームワークについて検討する。
ASは、臨床テキスト要約における人間のアノテーションと自動メトリクスの対応性を一貫して改善する。
論文 参考訳(メタデータ) (2024-03-01T21:59:03Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [51.26815896167173]
本稿では,3つの相補的な側面からPAMIレビューを総合的に分析する。
我々の分析は、現在のレビューの実践において、独特の組織パターンと永続的なギャップを明らかにします。
最後に、最先端のAI生成レビューの評価は、コヒーレンスと組織の進歩を奨励していることを示している。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Self-supervised Answer Retrieval on Clinical Notes [68.87777592015402]
本稿では,ドメイン固有パスマッチングのためのトランスフォーマー言語モデルをトレーニングするためのルールベースのセルフスーパービジョンであるCAPRを紹介する。
目的をトランスフォーマーベースの4つのアーキテクチャ、コンテキスト文書ベクトル、ビ-、ポリエンコーダ、クロスエンコーダに適用する。
本稿では,ドメイン固有パスの検索において,CAPRが強いベースラインを上回り,ルールベースおよび人間ラベル付きパスを効果的に一般化することを示す。
論文 参考訳(メタデータ) (2021-08-02T10:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。