論文の概要: Efficient Extraction of Pathologies from C-Spine Radiology Reports using
Multi-Task Learning
- arxiv url: http://arxiv.org/abs/2204.04544v1
- Date: Sat, 9 Apr 2022 20:29:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 01:00:35.116201
- Title: Efficient Extraction of Pathologies from C-Spine Radiology Reports using
Multi-Task Learning
- Title(参考訳): マルチタスク学習によるC-Spine Radiologyレポートからの病理の効率的な抽出
- Authors: Arijit Sehanobish, Nathaniel Brown, Ishita Daga, Jayashri Pawar,
Danielle Torres, Anasuya Das, Murray Becker, Richard Herzog, Benjamin Odry,
Ron Vianu
- Abstract要約: マルチタスクモデルは、様々なタスクで微調整された複数のBERTモデルの性能を達成または達成可能であることを示す。
内科医の頚椎X線所見に対する本法の有効性について検討した。
- 参考スコア(独自算出の注目度): 3.0473556982158625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pretrained Transformer based models finetuned on domain specific corpora have
changed the landscape of NLP. Generally, if one has multiple tasks on a given
dataset, one may finetune different models or use task specific adapters. In
this work, we show that a multi-task model can beat or achieve the performance
of multiple BERT-based models finetuned on various tasks and various task
specific adapter augmented BERT-based models. We validate our method on our
internal radiologist's report dataset on cervical spine. We hypothesize that
the tasks are semantically close and related and thus multitask learners are
powerful classifiers. Our work opens the scope of using our method to
radiologist's reports on various body parts.
- Abstract(参考訳): ドメイン固有コーパスを微調整した事前学習型トランスフォーマーモデルにより,NLPの景観が変化した。
一般に、あるデータセットに複数のタスクがある場合、異なるモデルを微調整したり、タスク固有のアダプタを使用する。
本研究では,マルチタスクモデルが,様々なタスクに微調整された複数のBERTベースのモデルと,BERTベースのモデルを付加した各種タスク固有アダプタの性能に勝ったり、達成できることを示す。
内科放射線科医の頚椎に関する報告データから, 当法を検証した。
タスクはセマンティックに近づき、関連するため、マルチタスク学習者は強力な分類器である。
本研究は, 放射線技師による様々な身体部位の報告に本手法を用いることの範囲を広げるものである。
関連論文リスト
- A Multitask Deep Learning Model for Classification and Regression of Hyperspectral Images: Application to the large-scale dataset [44.94304541427113]
ハイパースペクトル画像上で複数の分類タスクと回帰タスクを同時に行うマルチタスク深層学習モデルを提案する。
我々は、TAIGAと呼ばれる大規模なハイパースペクトルデータセットに対するアプローチを検証した。
結果の総合的定性的および定量的分析により,提案手法が他の最先端手法よりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2024-07-23T11:14:54Z) - Learning A Multi-Task Transformer Via Unified And Customized Instruction
Tuning For Chest Radiograph Interpretation [35.87795950781491]
本稿では,マルチモーダルな臨床タスクに特化して設計された統一型トランスフォーマーモデルについて述べる。
まず,134万の命令と接地真実対からなるマルチタスク学習データセットを構成する。
また,同種モデル入力とアウトプットを併用して,視力集約的なタスクを単一学習フレームワークに統合することで,1回の読解において臨床解釈可能性を高めることができる。
論文 参考訳(メタデータ) (2023-11-02T08:55:48Z) - Task-Based MoE for Multitask Multilingual Machine Translation [58.20896429151824]
Mixture-of-experts (MoE)アーキテクチャは、多くのアプリケーションで深層モデルのトレーニングにおいて、多様なタスクのための強力な手法であることが証明されている。
本研究では,タスク情報を異なる粒度レベルでMoEモデルに組み込む新しい手法を,動的タスクベースアダプタの共有により設計する。
論文 参考訳(メタデータ) (2023-08-30T05:41:29Z) - Diffusion Model is an Effective Planner and Data Synthesizer for
Multi-Task Reinforcement Learning [101.66860222415512]
Multi-Task Diffusion Model (textscMTDiff) は、トランスフォーマーのバックボーンを組み込んだ拡散に基づく手法であり、生成計画とデータ合成のための素早い学習を行う。
生成計画において、textscMTDiffはMeta-World上の50のタスクとMaze2D上の8のマップで最先端のアルゴリズムより優れています。
論文 参考訳(メタデータ) (2023-05-29T05:20:38Z) - Explaining the Effectiveness of Multi-Task Learning for Efficient
Knowledge Extraction from Spine MRI Reports [2.5953185061765884]
一つのマルチタスクモデルがタスク固有のモデルの性能にマッチすることを示す。
内科医による頚椎, 腰椎への注視所見について検討した。
論文 参考訳(メタデータ) (2022-05-06T01:51:19Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - The Effect of Diversity in Meta-Learning [79.56118674435844]
少ないショット学習は、少数の例から見れば、新しいタスクに対処できる表現を学習することを目的としている。
近年の研究では,タスク分布がモデルの性能に重要な役割を担っていることが示されている。
タスクの多様性がメタ学習アルゴリズムに与える影響を評価するために,多種多様なモデルとデータセットのタスク分布について検討する。
論文 参考訳(メタデータ) (2022-01-27T19:39:07Z) - XtremeDistilTransformers: Task Transfer for Task-agnostic Distillation [80.18830380517753]
我々は新しいタスク非依存蒸留フレームワーク XtremeDistilTransformers を開発した。
本研究は, 蒸留における複数のソースタスク, 拡張資源, モデルアーキテクチャの伝達可能性について検討する。
論文 参考訳(メタデータ) (2021-06-08T17:49:33Z) - Multi-task Semi-supervised Learning for Pulmonary Lobe Segmentation [2.8016091833446617]
肺葉のセグメンテーションは肺疾患の解析における重要な前処理課題である。
ディープラーニングベースのメソッドは、これらの従来のアプローチを上回ります。
深層マルチタスク学習は、複数の異なる構造のラベルを活用することが期待される。
論文 参考訳(メタデータ) (2021-04-22T12:33:30Z) - Low Resource Multi-Task Sequence Tagging -- Revisiting Dynamic
Conditional Random Fields [67.51177964010967]
異なるタスクに対するラベルシーケンス間の依存関係を利用する低リソースマルチタスクシーケンスタグの異なるモデルを比較した。
タスク予測間の相互依存性の明示的モデリングは、通常のマルチタスクモデルと同様にシングルタスクよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-01T07:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。