論文の概要: Cross-Task Attention Network: Improving Multi-Task Learning for Medical
Imaging Applications
- arxiv url: http://arxiv.org/abs/2309.03837v1
- Date: Thu, 7 Sep 2023 16:50:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-08 12:08:03.138978
- Title: Cross-Task Attention Network: Improving Multi-Task Learning for Medical
Imaging Applications
- Title(参考訳): クロスタスクアテンションネットワーク:医療画像アプリケーションのためのマルチタスク学習の改善
- Authors: Sangwook Kim, Thomas G. Purdie, Chris McIntosh
- Abstract要約: マルチタスク学習(MTL)は、複数のタスクからの情報を活用してモデルの性能を向上させる、ディープラーニングの強力なアプローチである。
我々は,画素レベルから画像レベルまで様々なタスクにおいて,タスク間インタラクションをよりよく活用する,新しいアテンションベースのMTLフレームワークを提案する。
具体的には,タスク間のインタラクションによって情報を統合するために,タスク間注意機構を利用したクロスタスク注意ネットワーク(CTAN)を提案する。
- 参考スコア(独自算出の注目度): 17.371696224791208
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-task learning (MTL) is a powerful approach in deep learning that
leverages the information from multiple tasks during training to improve model
performance. In medical imaging, MTL has shown great potential to solve various
tasks. However, existing MTL architectures in medical imaging are limited in
sharing information across tasks, reducing the potential performance
improvements of MTL. In this study, we introduce a novel attention-based MTL
framework to better leverage inter-task interactions for various tasks from
pixel-level to image-level predictions. Specifically, we propose a Cross-Task
Attention Network (CTAN) which utilizes cross-task attention mechanisms to
incorporate information by interacting across tasks. We validated CTAN on four
medical imaging datasets that span different domains and tasks including:
radiation treatment planning prediction using planning CT images of two
different target cancers (Prostate, OpenKBP); pigmented skin lesion
segmentation and diagnosis using dermatoscopic images (HAM10000); and COVID-19
diagnosis and severity prediction using chest CT scans (STOIC). Our study
demonstrates the effectiveness of CTAN in improving the accuracy of medical
imaging tasks. Compared to standard single-task learning (STL), CTAN
demonstrated a 4.67% improvement in performance and outperformed both widely
used MTL baselines: hard parameter sharing (HPS) with an average performance
improvement of 3.22%; and multi-task attention network (MTAN) with a relative
decrease of 5.38%. These findings highlight the significance of our proposed
MTL framework in solving medical imaging tasks and its potential to improve
their accuracy across domains.
- Abstract(参考訳): マルチタスク学習(MTL)は、訓練中の複数のタスクからの情報を活用し、モデルの性能を向上させる、ディープラーニングの強力なアプローチである。
医用画像では、MTLは様々な課題を解く大きな可能性を示している。
しかし、医用画像における既存のMTLアーキテクチャは、タスク間での情報共有に限られており、MTLの性能改善の可能性を減らすことができる。
本研究では,画素レベルから画像レベルまで様々なタスクにおけるタスク間インタラクションをよりよく活用するための,注目に基づく新しいMTLフレームワークを提案する。
具体的には,タスク間のインタラクションによって情報を取り込むクロスタスクアテンション機構を利用するクロスタスクアテンションネットワーク(ctan)を提案する。
対象とする2つの癌(前立腺癌,OpenKBP)のCT画像を用いた放射線治療計画予測,皮膚皮膚病変の分画と診断のための皮膚内視鏡画像(HAM10000),胸部CT画像(STOIC)を用いた新型コロナウイルスの診断と重症度予測の4つの領域にまたがってCTANを検証した。
本研究はCTANが医用画像の精度向上に有効であることを示す。
標準のシングルタスク学習(STL)と比較して、CTANはパフォーマンスが4.67%向上し、HPS(ハードパラメータ共有)の3.22%、MTAN(マルチタスク注意ネットワーク)の5.38%低下という、広く使われているMTLベースラインよりも優れていた。
これらの知見は,医療画像課題の解決におけるmtlフレームワークの意義と,その領域間における精度向上の可能性を強調した。
関連論文リスト
- Med-TTT: Vision Test-Time Training model for Medical Image Segmentation [5.318153305245246]
We propose Med-TTT, a visual backbone network with Test-Time Training layer。
このモデルは精度、感度、Dice係数の点で先行的な性能を達成する。
論文 参考訳(メタデータ) (2024-10-03T14:29:46Z) - QUBIQ: Uncertainty Quantification for Biomedical Image Segmentation Challenge [93.61262892578067]
医用画像分割作業の不確実性、特にラター間変動性は重要な課題である。
この可変性は、自動セグメンテーションアルゴリズムの開発と評価に直接影響を及ぼす。
バイオメディカル画像量化チャレンジ(QUBIQ)における不確実性の定量化のベンチマーク結果を報告する。
論文 参考訳(メタデータ) (2024-03-19T17:57:24Z) - C^2M-DoT: Cross-modal consistent multi-view medical report generation
with domain transfer network [67.97926983664676]
ドメイン転送ネットワーク(C2M-DoT)を用いたクロスモーダルなマルチビュー医療レポート生成を提案する。
C2M-DoTは、すべてのメトリクスで最先端のベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2023-10-09T02:31:36Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Superresolution and Segmentation of OCT scans using Multi-Stage
adversarial Guided Attention Training [18.056525121226862]
我々は,OCTスキャンを高分解能セグメンテーションラベルに変換する多段階・多識別型生成逆数ネットワーク(MultiSDGAN)を提案する。
我々は,MultiSDGANアーキテクチャに対して,チャネルと空間的注意の様々な組み合わせを評価し,比較し,より強力な特徴マップを抽出する。
その結果,Dice係数とSSIMでは21.44%,19.45%の相対的な改善が見られた。
論文 参考訳(メタデータ) (2022-06-10T00:26:55Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Cross-Modal Information Maximization for Medical Imaging: CMIM [62.28852442561818]
病院では、同じ情報を異なるモダリティの下で利用できるようにする特定の情報システムにデータがサイロ化される。
これは、テスト時に常に利用できないかもしれない同じ情報の複数のビューを列車で取得し、使用するためのユニークな機会を提供する。
テスト時にモダリティの低下に耐性を持つマルチモーダル入力の優れた表現を学習することで、利用可能なデータを最大限活用する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T20:05:35Z) - Unified Representation Learning for Efficient Medical Image Analysis [0.623075162128532]
統一モダリティ特化特徴表現(UMS-Rep)を用いた医用画像解析のためのマルチタスクトレーニング手法を提案する。
提案手法は,計算資源の全体的な需要を減らし,タスクの一般化と性能の向上を図っている。
論文 参考訳(メタデータ) (2020-06-19T16:52:16Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z) - Extending Unsupervised Neural Image Compression With Supervised
Multitask Learning [9.11819585066044]
我々は、画像レベルの目標を予測するために、ギガピクセルの病理画像上で畳み込みニューラルネットワークを訓練する問題に焦点を当てる。
画像圧縮フレームワークであるNeural Image Compression(NIC)を拡張して,教師なしでトレーニングしたエンコーダネットワークを用いて,画像の次元を縮小する。
代わりに、教師付きマルチタスク学習(MTL)を用いて、このエンコーダを訓練することを提案する。
論文 参考訳(メタデータ) (2020-04-15T12:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。