論文の概要: An Interpretable End-to-end Fine-tuning Approach for Long Clinical Text
- arxiv url: http://arxiv.org/abs/2011.06504v1
- Date: Thu, 12 Nov 2020 17:14:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 07:15:35.587698
- Title: An Interpretable End-to-end Fine-tuning Approach for Long Clinical Text
- Title(参考訳): 長期臨床テキストのための解釈可能なエンドツーエンドの微調整手法
- Authors: Kexin Huang, Sankeerth Garapati, Alexander S. Rich
- Abstract要約: EHRにおける非構造化臨床テキストには、意思決定支援、トライアルマッチング、振り返り研究を含むアプリケーションにとって重要な情報が含まれている。
最近の研究は、これらのモデルが他のNLPドメインにおける最先端の性能を考慮し、BERTベースのモデルを臨床情報抽出およびテキスト分類に応用している。
本稿では,SnipBERTという新しい微調整手法を提案する。SnipBERTは全音符を使用する代わりに,重要なスニペットを識別し,階層的に切り刻まれたBERTベースのモデルに供給する。
- 参考スコア(独自算出の注目度): 72.62848911347466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unstructured clinical text in EHRs contains crucial information for
applications including decision support, trial matching, and retrospective
research. Recent work has applied BERT-based models to clinical information
extraction and text classification, given these models' state-of-the-art
performance in other NLP domains. However, BERT is difficult to apply to
clinical notes because it doesn't scale well to long sequences of text. In this
work, we propose a novel fine-tuning approach called SnipBERT. Instead of using
entire notes, SnipBERT identifies crucial snippets and then feeds them into a
truncated BERT-based model in a hierarchical manner. Empirically, SnipBERT not
only has significant predictive performance gain across three tasks but also
provides improved interpretability, as the model can identify key pieces of
text that led to its prediction.
- Abstract(参考訳): EHRにおける非構造化臨床テキストには、意思決定支援、トライアルマッチング、振り返り研究を含むアプリケーションにとって重要な情報が含まれている。
最近の研究は、これらのモデルが他のNLPドメインにおける最先端の性能を考慮し、BERTベースのモデルを臨床情報抽出およびテキスト分類に応用している。
しかし,長いテキスト列に拡張できないため,臨床ノートに適用することは困難である。
本研究では,SnipBERTと呼ばれる新しい微調整手法を提案する。
ノート全体を使用する代わりに、SnipBERTは重要なスニペットを識別し、階層的な方法でTruncated BERTベースのモデルにフィードする。
経験的に、SnipBERTは3つのタスクにまたがる大きな予測性能を持つだけでなく、その予測に繋がる重要なテキストを識別できるため、解釈可能性も向上している。
関連論文リスト
- SNOBERT: A Benchmark for clinical notes entity linking in the SNOMED CT clinical terminology [43.89160296332471]
本稿では,BERT モデルを用いた SNOMED CT のテキストスパンと特定の概念をリンクする手法を提案する。
本手法は, 候補選択と候補マッチングの2段階からなる。これらのモデルは, ラベル付き臨床ノートの公開データセットの中で, 最大規模で訓練された。
論文 参考訳(メタデータ) (2024-05-25T08:00:44Z) - Attribute Structuring Improves LLM-Based Evaluation of Clinical Text
Summaries [62.32403630651586]
大規模言語モデル(LLM)は、正確な臨床テキスト要約を生成する可能性を示しているが、根拠付けと評価に関する問題に苦慮している。
本稿では、要約評価プロセスを構成するAttribute Structuring(AS)を用いた一般的な緩和フレームワークについて検討する。
ASは、臨床テキスト要約における人間のアノテーションと自動メトリクスの対応性を一貫して改善する。
論文 参考訳(メタデータ) (2024-03-01T21:59:03Z) - Keyword-optimized Template Insertion for Clinical Information Extraction
via Prompt-based Learning [0.2939632869678985]
臨床ノートのためのキーワード最適化テンプレート挿入法(KOTI)を開発した。
ゼロショットおよび少数ショットのトレーニング環境では,いくつかの臨床課題におけるパフォーマンス向上の方法を示す。
論文 参考訳(メタデータ) (2023-10-31T00:07:11Z) - Making the Most Out of the Limited Context Length: Predictive Power
Varies with Clinical Note Type and Note Section [70.37720062263176]
本研究では,高い予測力で区間を解析する枠組みを提案する。
MIMIC-IIIを用いて,(1)看護用音符と退院用音符とでは予測電力分布が異なること,(2)文脈長が大きい場合の音符の組み合わせにより性能が向上することが示唆された。
論文 参考訳(メタデータ) (2023-07-13T20:04:05Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - HealthPrompt: A Zero-shot Learning Paradigm for Clinical Natural
Language Processing [3.762895631262445]
われわれはHealthPromptという新しいプロンプトベースのNLPフレームワークを開発した。
本研究は,6種類のPLMを用いたHealthPromptの詳細な分析を行った。
本実験は,臨床テキストのコンテキストを効果的に把握し,トレーニングデータなしで極めて良好に動作できることを証明した。
論文 参考訳(メタデータ) (2022-03-09T21:44:28Z) - Fine-Tuning Large Neural Language Models for Biomedical Natural Language
Processing [55.52858954615655]
バイオメディカルNLPの微調整安定性に関する系統的研究を行った。
我々は、特に低リソース領域において、微調整性能は事前トレーニング設定に敏感であることを示した。
これらの技術は低リソースバイオメディカルNLPアプリケーションの微調整性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-12-15T04:20:35Z) - Clinical Trial Information Extraction with BERT [0.0]
臨床試験テキストから情報抽出を行うためのCT-BERTというフレームワークを提案する。
我々は、資格基準を抽出するために、名前付きエンティティ認識(NER)モデルを訓練した。
臨床試験NLPにおけるCT-BERTの有用性について検討した。
論文 参考訳(メタデータ) (2021-09-11T17:15:10Z) - Artificial Text Detection via Examining the Topology of Attention Maps [58.46367297712477]
トポロジカルデータ分析(TDA)に基づく3種類の解釈可能なトポロジカル特徴を提案する。
BERTモデルから派生した特徴が3つの共通データセットにおいて、カウントベースとニューラルベースベースラインを最大10%上回っていることを実証的に示す。
特徴の探索解析は表面に対する感度と構文的性質を明らかにしている。
論文 参考訳(メタデータ) (2021-09-10T12:13:45Z) - Fine-tuning Pretrained Language Models with Label Attention for
Explainable Biomedical Text Classification [1.066048003460524]
PTMの微調整プロセスに意味ラベル記述を注入するための改良されたラベルアテンションに基づくアーキテクチャを開発した。
2つの公開医療データセットの結果、提案手法は従来の微調整PTMと先行技術モデルよりも優れていた。
論文 参考訳(メタデータ) (2021-08-26T14:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。