論文の概要: An Automatic SOAP Classification System Using Weakly Supervision And
Transfer Learning
- arxiv url: http://arxiv.org/abs/2211.14539v1
- Date: Sat, 26 Nov 2022 10:58:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 17:27:50.999456
- Title: An Automatic SOAP Classification System Using Weakly Supervision And
Transfer Learning
- Title(参考訳): 弱スーパービジョンと伝達学習を用いたSOAP自動分類システム
- Authors: Sunjae Kwon, Zhichao Yang, Hong Yu
- Abstract要約: 本稿では、機械学習に基づくSOAP分類システム(Subjective, Objective, Assessment, and Plan)を開発するための包括的なフレームワークを紹介する。
データ構築において、EHRノートの構造情報を利用したルールベースの弱いラベル付け手法を提案する。
我々は、我々の弱いラベル付けアルゴリズムで訓練されたSOAP分類モデルが、同じ病院のEHRノートに手動で注釈付けされたデータなしでSOAP分類を行うことができることを示した。
- 参考スコア(独自算出の注目度): 4.96693556446216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce a comprehensive framework for developing a
machine learning-based SOAP (Subjective, Objective, Assessment, and Plan)
classification system without manually SOAP annotated training data or with
less manually SOAP annotated training data. The system is composed of the
following two parts: 1) Data construction, 2) A neural network-based SOAP
classifier, and 3) Transfer learning framework. In data construction, since a
manual construction of a large size training dataset is expensive, we propose a
rule-based weak labeling method utilizing the structured information of an EHR
note. Then, we present a SOAP classifier composed of a pre-trained language
model and bi-directional long-short term memory with conditional random field
(Bi-LSTM-CRF). Finally, we propose a transfer learning framework that re-uses
the trained parameters of the SOAP classifier trained with the weakly labeled
dataset for datasets collected from another hospital. The proposed weakly
label-based learning model successfully performed SOAP classification (89.99
F1-score) on the notes collected from the target hospital. Otherwise, in the
notes collected from other hospitals and departments, the performance
dramatically decreased. Meanwhile, we verified that the transfer learning
framework is advantageous for inter-hospital adaptation of the model increasing
the models' performance in every cases. In particular, the transfer learning
approach was more efficient when the manually annotated data size was smaller.
We showed that SOAP classification models trained with our weakly labeling
algorithm can perform SOAP classification without manually annotated data on
the EHR notes from the same hospital. The transfer learning framework helps
SOAP classification model's inter-hospital migration with a minimal size of the
manually annotated dataset.
- Abstract(参考訳): 本稿では,手作業によるSOAPアノテーションによるトレーニングデータや,手作業によるSOAPアノテーションによるトレーニングデータを必要としない,機械学習ベースのSOAP分類システムを開発するための包括的なフレームワークを提案する。
この制度は以下の2つの部分から構成される。
1)データ構築
2)ニューラルネットワークベースのsoap分類器、および
3)トランスファー学習フレームワーク。
データ構築において,大規模トレーニングデータセットの手動構成は高価であるため,ehrノートの構造情報を利用したルールベース弱ラベリング手法を提案する。
次に,条件付きランダムフィールド(Bi-LSTM-CRF)を用いた,事前学習言語モデルと双方向長短項メモリからなるSOAP分類器を提案する。
最後に、他の病院から収集したデータセットに対して、弱いラベル付きデータセットで訓練されたSOAP分類器の訓練済みパラメータを再利用する転送学習フレームワークを提案する。
提案した弱いラベルに基づく学習モデルは、対象病院から収集したノートにSOAP分類(89.99 F1スコア)を成功させた。
そうでなければ、他の病院や部門から集められたメモでは、パフォーマンスが劇的に低下した。
一方,トランスファー・ラーニング・フレームワークは,各ケースにおけるモデルの性能向上を図り,病院間適応に有利であることを検証した。
特に手動でアノテートしたデータサイズが小さくなると、転送学習のアプローチはより効率的になった。
私たちは、我々の弱いラベル付けアルゴリズムで訓練されたSOAP分類モデルが、同じ病院のEHRノートに手動で注釈付けされたデータなしでSOAP分類を行うことができることを示した。
移行学習フレームワークは、手動で注釈付けされたデータセットの最小サイズでSOAP分類モデルのホスピタル間移行を支援する。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - DALSA: Domain Adaptation for Supervised Learning From Sparsely Annotated
MR Images [2.352695945685781]
そこで本研究では,自動腫瘍セグメンテーションのための教師あり学習において,スパースアノテーションによるサンプル選択誤差を補正するトランスファーラーニング手法を提案する。
提案手法は,スパースおよび曖昧なアノテーションから,異なる組織クラスに対する高品質な分類法を導出する。
完全ラベル付きデータを用いたトレーニングと比較して, ラベル付け時間とトレーニング時間は, 精度を犠牲にすることなく, 70倍, 180倍に短縮した。
論文 参考訳(メタデータ) (2024-03-12T09:17:21Z) - Universal Semi-Supervised Learning for Medical Image Classification [21.781201758182135]
セミ教師付き学習(SSL)は、適切なラベル付きトレーニングデータを収集するコストを削減できるため、多くの注目を集めている。
従来のSSLは、ラベル付きデータとラベルなしデータが同じディストリビューションのものであるべきだという仮定に基づいて構築されている。
本研究では,未表示のラベル付きデータを利用した半教師付き医療画像分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-08T16:12:36Z) - Inferring Class Label Distribution of Training Data from Classifiers: An
Accuracy-Augmented Meta-Classifier Attack [2.741266294612776]
機械学習(ML)モデルに対するプロパティ推論攻撃は、モデルの主要なタスクとは無関係なトレーニングデータの特性を推測することを目的としている。
本稿では,文学における二項決定問題とは異なり,学習データのクラスラベル分布を推定することを目的とした,新たなタイプのプロパティ推論攻撃を提案する。
論文 参考訳(メタデータ) (2022-11-08T10:54:36Z) - CIM: Class-Irrelevant Mapping for Few-Shot Classification [58.02773394658623]
FSC(Few-shot Classification)は近年のホットな問題の一つである。
事前訓練されたFEMを評価する方法は、FSCコミュニティにおいて最も重要な焦点である。
CIM(Class-Irrelevant Mapping)と呼ばれるシンプルなフレキシブルな手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T03:26:24Z) - Enhancing the Generalization for Intent Classification and Out-of-Domain
Detection in SLU [70.44344060176952]
インテント分類は、音声言語理解(SLU)における主要な課題である
近年の研究では、余分なデータやラベルを使用することで、OOD検出性能が向上することが示されている。
本稿では、IND意図分類とOOD検出の両方をサポートしながら、INDデータのみを用いてモデルを訓練することを提案する。
論文 参考訳(メタデータ) (2021-06-28T08:27:38Z) - Recognition and Processing of NATOM [0.0]
本稿では,民間航空分野におけるNOTAM(Notice to Airmen)データの処理方法について述べる。
NOTAMのオリジナルのデータには、中国語と英語の混合があり、構造は貧弱です。
グローブワードベクターメソッドを使用して、カスタムマッピング語彙を使用するデータを表現する。
論文 参考訳(メタデータ) (2021-04-29T10:12:00Z) - SLADE: A Self-Training Framework For Distance Metric Learning [75.54078592084217]
我々は、追加のラベルのないデータを活用することで、検索性能を向上させるための自己学習フレームワークSLADEを提案する。
まず、ラベル付きデータに基づいて教師モデルをトレーニングし、ラベルなしデータに対して擬似ラベルを生成する。
次に、最終機能埋め込みを生成するために、ラベルと擬似ラベルの両方で学生モデルをトレーニングします。
論文 参考訳(メタデータ) (2020-11-20T08:26:10Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z) - Towards an Automated SOAP Note: Classifying Utterances from Medical
Conversations [0.6875312133832078]
我々は、(i)SOAPセクションと(ii)話者の役割に従って、医療会話から発話を分類するためのギャップを橋渡しします。
本稿では,既存のディープラーニングアーキテクチャを上記の2つのタスクに適応させるシステム分析を提案する。
その結果,単語レベルと発話レベルの両方をキャプチャする階層的な文脈をモデル化することで,両者の分類作業を大幅に改善することが示唆された。
論文 参考訳(メタデータ) (2020-07-17T04:19:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。