論文の概要: MT-Clinical BERT: Scaling Clinical Information Extraction with Multitask
Learning
- arxiv url: http://arxiv.org/abs/2004.10220v1
- Date: Tue, 21 Apr 2020 18:04:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 06:22:21.890310
- Title: MT-Clinical BERT: Scaling Clinical Information Extraction with Multitask
Learning
- Title(参考訳): MT-Clinical BERT:マルチタスク学習による臨床情報抽出
- Authors: Andriy Mulyar and Bridget T. McInnes
- Abstract要約: 8つの臨床的タスクを同時に実行する1つの深層学習モデルであるMultitask-Clinical BERTを開発した。
我々の単一システムは、あらゆる最先端のタスク固有システムと競合し、推論時の膨大な計算上の利点の恩恵を受ける。
- 参考スコア(独自算出の注目度): 7.208515071018781
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clinical notes contain an abundance of important but not-readily accessible
information about patients. Systems to automatically extract this information
rely on large amounts of training data for which their exists limited resources
to create. Furthermore, they are developed dis-jointly; meaning that no
information can be shared amongst task-specific systems. This bottle-neck
unnecessarily complicates practical application, reduces the performance
capabilities of each individual solution and associates the engineering debt of
managing multiple information extraction systems. We address these challenges
by developing Multitask-Clinical BERT: a single deep learning model that
simultaneously performs eight clinical tasks spanning entity extraction, PHI
identification, language entailment and similarity by sharing representations
amongst tasks. We find our single system performs competitively with all
state-the-art task-specific systems while also benefiting from massive
computational benefits at inference.
- Abstract(参考訳): 臨床ノートには、患者に関する情報が多数含まれている。
この情報を自動抽出するシステムは、生成するリソースが限られている大量のトレーニングデータに依存する。
さらにそれらは非協力的に開発され、タスク固有のシステム間で情報を共有することはできない。
このボトルネックは、不要に実用的応用を複雑にし、個々のソリューションの性能を低下させ、複数の情報抽出システムを管理する工学的負債を関連付ける。
タスク間で表現を共有することによって,エンティティ抽出,phi識別,言語対応,類似性にまたがる8つの臨床タスクを同時に実行する,単一のディープラーニングモデルである。
我々の単一システムは、あらゆる最先端のタスク固有システムと競合し、推論時の膨大な計算上の利点の恩恵を受ける。
関連論文リスト
- An Information Criterion for Controlled Disentanglement of Multimodal Data [39.601584166020274]
マルチモーダル表現学習は、複数のモーダルに固有の情報を関連付けて分解しようとする。
Disentangled Self-Supervised Learning (DisentangledSSL)は、非角表現を学習するための新しい自己教師型アプローチである。
論文 参考訳(メタデータ) (2024-10-31T14:57:31Z) - FlexCare: Leveraging Cross-Task Synergy for Flexible Multimodal Healthcare Prediction [34.732561455987145]
我々は、不完全なマルチモーダル入力に柔軟に対応するために、textbfFlexCareという統合医療予測モデルを提案する。
タスクに依存しないマルチモーダル情報抽出モジュールを提示し、多様なモダリティ内およびモダリティ間パターンの非相関表現をキャプチャする。
MIMIC-IV/MIMIC-CXR/MIMIC-NOTEデータセットによる複数のタスクの実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-17T12:03:10Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Factorized Contrastive Learning: Going Beyond Multi-view Redundancy [116.25342513407173]
本稿では,マルチビュー冗長性を超えた新しいマルチモーダル表現学習法であるFacterCLを提案する。
大規模な実世界のデータセットでは、FacterCLは共有情報とユニークな情報の両方をキャプチャし、最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-06-08T15:17:04Z) - Federated Cycling (FedCy): Semi-supervised Federated Learning of
Surgical Phases [57.90226879210227]
FedCyは、FLと自己教師付き学習を組み合わせた半教師付き学習(FSSL)手法で、ラベル付きビデオとラベルなしビデオの両方の分散データセットを利用する。
外科的段階の自動認識作業において,最先端のFSSL法よりも顕著な性能向上を示した。
論文 参考訳(メタデータ) (2022-03-14T17:44:53Z) - Learning Multi-Tasks with Inconsistent Labels by using Auxiliary Big
Task [24.618094251341958]
マルチタスク学習は,タスク間の共通知識の伝達と活用により,モデルの性能を向上させることを目的とする。
本稿では,これらの課題をカバーするために,学習した補助的大タスクから豊富な情報と十分な数のクラスを両立させることにより,これらの課題を学習するための枠組みを提案する。
実験により, 現状のアプローチと比較し, その有効性を示した。
論文 参考訳(メタデータ) (2022-01-07T02:46:47Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - On the relationship between disentanglement and multi-task learning [62.997667081978825]
ハードパラメータ共有に基づくマルチタスク学習と絡み合いの関係について,より詳しく検討する。
マルチタスクニューラルネットワークトレーニングの過程において, 絡み合いが自然に現れることを示す。
論文 参考訳(メタデータ) (2021-10-07T14:35:34Z) - Context-Aware Multi-Task Learning for Traffic Scene Recognition in
Autonomous Vehicles [10.475998113861895]
マルチタスク学習ネットワークを採用することにより,タスク固有表現と共有表現を協調的に学習するアルゴリズムを提案する。
大規模データセットHSDの実験は、最先端手法よりもネットワークの有効性と優位性を実証している。
論文 参考訳(メタデータ) (2020-04-03T03:09:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。