論文の概要: MobileUtr: Revisiting the relationship between light-weight CNN and
Transformer for efficient medical image segmentation
- arxiv url: http://arxiv.org/abs/2312.01740v1
- Date: Mon, 4 Dec 2023 09:04:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 15:37:55.407854
- Title: MobileUtr: Revisiting the relationship between light-weight CNN and
Transformer for efficient medical image segmentation
- Title(参考訳): MobileUtr:効率的な医用画像分割のための軽量CNNとトランスフォーマーの関係の再検討
- Authors: Fenghe Tang, Bingkun Nian, Jianrui Ding, Quan Quan, Jie Yang, Wei Liu,
S.Kevin Zhou
- Abstract要約: 本研究は,医療画像セグメンテーションのための軽量ユニバーサルネットワークにおけるCNNとトランスフォーマーの関係を再考する。
CNNに固有の帰納バイアスを活用するために、Transformerのような軽量CNNブロック(ConvUtr)をViTのパッチ埋め込みとして抽象化する。
CNNとTransformerをベースとした効率的な医用画像分割モデル(MobileUtr)を構築した。
- 参考スコア(独自算出の注目度): 25.056401513163493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the scarcity and specific imaging characteristics in medical images,
light-weighting Vision Transformers (ViTs) for efficient medical image
segmentation is a significant challenge, and current studies have not yet paid
attention to this issue. This work revisits the relationship between CNNs and
Transformers in lightweight universal networks for medical image segmentation,
aiming to integrate the advantages of both worlds at the infrastructure design
level. In order to leverage the inductive bias inherent in CNNs, we abstract a
Transformer-like lightweight CNNs block (ConvUtr) as the patch embeddings of
ViTs, feeding Transformer with denoised, non-redundant and highly condensed
semantic information. Moreover, an adaptive Local-Global-Local (LGL) block is
introduced to facilitate efficient local-to-global information flow exchange,
maximizing Transformer's global context information extraction capabilities.
Finally, we build an efficient medical image segmentation model (MobileUtr)
based on CNN and Transformer. Extensive experiments on five public medical
image datasets with three different modalities demonstrate the superiority of
MobileUtr over the state-of-the-art methods, while boasting lighter weights and
lower computational cost. Code is available at
https://github.com/FengheTan9/MobileUtr.
- Abstract(参考訳): 医用画像の特異な画像特性が乏しいため、効率的な医用画像分割のための軽量視覚トランスフォーマ(vits)は重要な課題であり、この問題にはまだ注目されていない。
本研究は,医療画像セグメンテーションのための軽量ユニバーサルネットワークにおけるCNNとトランスフォーマーの関係を再考し,インフラ設計レベルで両世界の利点を統合することを目的とする。
CNNに固有の帰納バイアスを活用するために、Transformerライクな軽量CNNブロック(ConvUtr)をViTのパッチ埋め込みとして抽象化し、Transformerに識別され、非冗長で高度に凝縮されたセマンティック情報を与える。
さらに,lgl(adaptive local-global-local)ブロックを導入して,transformerのグローバルコンテキスト情報抽出機能を最大化することにより,効率的な情報フロー交換を実現する。
最後に,CNN と Transformer に基づく効率的な医用画像分割モデル (MobileUtr) を構築した。
3つの異なるモードを持つ5つの公開医療画像データセットに対する大規模な実験は、より軽量で計算コストの低いMobileUtrよりも優れていることを示している。
コードはhttps://github.com/fenghetan9/mobileutrで入手できる。
関連論文リスト
- CNN-Transformer Rectified Collaborative Learning for Medical Image Segmentation [60.08541107831459]
本稿では,医用画像セグメンテーションのための強力なCNNベースモデルとトランスフォーマーベースモデルを学習するための,CNN-Transformer修正協調学習フレームワークを提案する。
具体的には,学生ソフトラベルの誤り領域を適応的に選択・修正する基礎的真理を取り入れた修正ロジット・ワイド・コラボレーティブ・ラーニング(RLCL)戦略を提案する。
また,機能空間におけるCNNベースモデルとTransformerベースモデル間の効果的な知識伝達を実現するために,クラス認識型特徴量協調学習(CFCL)戦略を提案する。
論文 参考訳(メタデータ) (2024-08-25T01:27:35Z) - CMUNeXt: An Efficient Medical Image Segmentation Network based on Large
Kernel and Skip Fusion [11.434576556863934]
CMUNeXtは、効率的な完全畳み込み軽量医療画像セグメンテーションネットワークである。
実際のシーンシナリオにおいて、迅速かつ正確な補助診断を可能にする。
論文 参考訳(メタデータ) (2023-08-02T15:54:00Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - PHTrans: Parallelly Aggregating Global and Local Representations for
Medical Image Segmentation [7.140322699310487]
我々はPHTransと呼ばれる医用画像分割のための新しいハイブリッドアーキテクチャを提案する。
PHTransはTransformerとCNNを並列にハイブリッド化し、グローバルな特徴とローカルな特徴から階層的な表現を生成する。
論文 参考訳(メタデータ) (2022-03-09T08:06:56Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - Pyramid Medical Transformer for Medical Image Segmentation [8.157373686645318]
ピラミッド型ネットワークアーキテクチャ(PMTrans)を用いたマルチスケールアテンションとCNN特徴抽出を統合した新しい手法を開発した。
2つの医用画像データセット(腺セグメンテーションとMoNuSegデータセット)の実験結果によると、PMTransは最新のCNNベースおよびトランスフォーマーベースの医療用画像セグメンテーションモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-04-29T23:57:20Z) - TransMed: Transformers Advance Multi-modal Medical Image Classification [4.500880052705654]
畳み込みニューラルネットワーク(CNN)は、医療画像解析タスクで非常に競争力のあるパフォーマンスを示しています。
トランスフォーマーはコンピュータビジョンに適用され、大規模なデータセットで顕著な成功を収めた。
TransMedはCNNとトランスフォーマーの利点を組み合わせて、画像の低レベル特徴を効率的に抽出する。
論文 参考訳(メタデータ) (2021-03-10T08:57:53Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。