論文の概要: Semi-Supervised Medical Image Segmentation via Cross Teaching between
CNN and Transformer
- arxiv url: http://arxiv.org/abs/2112.04894v1
- Date: Thu, 9 Dec 2021 13:22:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 19:01:23.986484
- Title: Semi-Supervised Medical Image Segmentation via Cross Teaching between
CNN and Transformer
- Title(参考訳): CNNとトランスフォーマーの相互指導による半監督的医用画像分割
- Authors: Xiangde Luo, Minhao Hu, Tao Song, Guotai Wang, Shaoting Zhang
- Abstract要約: 本稿では,CNN と Transformer の相互教育を導入することで,半教師付き医用画像セグメンテーションの枠組みを提案する。
特に、この研究は、CNNとトランスフォーマーを組み合わせて半教師付き医療画像セグメンテーションを行い、公的なベンチマークで有望な結果を得る最初の試みかもしれない。
- 参考スコア(独自算出の注目度): 11.381487613753004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, deep learning with Convolutional Neural Networks (CNNs) and
Transformers has shown encouraging results in fully supervised medical image
segmentation. However, it is still challenging for them to achieve good
performance with limited annotations for training. In this work, we present a
very simple yet efficient framework for semi-supervised medical image
segmentation by introducing the cross teaching between CNN and Transformer.
Specifically, we simplify the classical deep co-training from consistency
regularization to cross teaching, where the prediction of a network is used as
the pseudo label to supervise the other network directly end-to-end.
Considering the difference in learning paradigm between CNN and Transformer, we
introduce the Cross Teaching between CNN and Transformer rather than just using
CNNs. Experiments on a public benchmark show that our method outperforms eight
existing semi-supervised learning methods just with a simpler framework.
Notably, this work may be the first attempt to combine CNN and transformer for
semi-supervised medical image segmentation and achieve promising results on a
public benchmark. The code will be released at:
https://github.com/HiLab-git/SSL4MIS.
- Abstract(参考訳): 近年、畳み込みニューラルネットワーク(CNN)とトランスフォーマーによるディープラーニングは、完全に教師付き医療画像セグメンテーションの促進効果を示している。
しかし、トレーニングのための限られたアノテーションで優れたパフォーマンスを達成することは依然として難しい。
本稿では,cnnとtransformerの相互指導を導入することで,半教師付き医用画像セグメンテーションのための極めて単純かつ効率的な枠組みを提案する。
具体的には、ネットワークの予測を擬似ラベルとして、他のネットワークをエンドツーエンドで直接監視する、一貫性の正規化からクロスティーチングまでの古典的な深層学習を単純化する。
CNNとTransformerの学習パラダイムの違いを考慮して,単にCNNを使うのではなく,CNNとTransformerの相互指導を導入する。
提案手法は,より単純なフレームワークを用いて,既存の8つの半教師あり学習手法より優れていることを示す。
特に、この研究は、CNNとトランスフォーマーを組み合わせて半教師付き医療画像セグメンテーションを行い、公的なベンチマークで有望な結果を得る最初の試みかもしれない。
コードは、https://github.com/HiLab-git/SSL4MISでリリースされる。
関連論文リスト
- ScribFormer: Transformer Makes CNN Work Better for Scribble-based
Medical Image Segmentation [43.24187067938417]
本稿では,ScribFormerと呼ばれるスクリブル制御型医用画像分割のためのCNN-Transformerハイブリッドソリューションを提案する。
提案したScribFormerモデルはトリプルブランチ構造、すなわちCNNブランチとTransformerブランチのハイブリッド、注意誘導型クラスアクティベーションマップ(ACAM)ブランチを備えている。
論文 参考訳(メタデータ) (2024-02-03T04:55:22Z) - The Counterattack of CNNs in Self-Supervised Learning: Larger Kernel
Size might be All You Need [103.31261028244782]
視覚変換器は、その卓越したスケーリングトレンドのおかげで、コンピュータビジョンにおいて急速に蜂起し、畳み込みニューラルネットワーク(CNN)を徐々に置き換えている。
自己教師付き学習(SSL)に関する最近の研究は、サイムズ事前学習タスクを導入している。
SSLの文脈では、トランスフォーマーやセルフアテンションモジュールは本質的にCNNよりも適していると考えるようになった。
論文 参考訳(メタデータ) (2023-12-09T22:23:57Z) - CiT-Net: Convolutional Neural Networks Hand in Hand with Vision
Transformers for Medical Image Segmentation [10.20771849219059]
医用画像分割のための畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(CiT-Net)のハイブリッドアーキテクチャを提案する。
我々のCit-Netは、一般的なSOTA法よりも優れた医用画像セグメンテーション結果を提供する。
論文 参考訳(メタデータ) (2023-06-06T03:22:22Z) - ConvTransSeg: A Multi-resolution Convolution-Transformer Network for
Medical Image Segmentation [14.485482467748113]
ハイブリッドエンコーダ/デコーダセグメンテーションモデル(ConvTransSeg)を提案する。
特徴学習用エンコーダとして多層CNNと,セグメンテーション予測用デコーダとして対応する多層トランスフォーマーから構成される。
本手法は,モデル複雑度とメモリ消費率の低いDice係数と平均対称表面距離の測定値で最高の性能を実現する。
論文 参考訳(メタデータ) (2022-10-13T14:59:23Z) - SegTransVAE: Hybrid CNN -- Transformer with Regularization for medical
image segmentation [0.0]
本稿では,SegTransVAEという新しいネットワークを提案する。
SegTransVAEはエンコーダ-デコーダアーキテクチャに基づいて構築されており、ネットワークへの可変オートエンコーダ(VAE)ブランチでトランスフォーマーを利用する。
最近導入されたデータセットの評価によると、SegTransVAEはDice Scoreと95%$-Haudorff Distanceで過去の手法より優れている。
論文 参考訳(メタデータ) (2022-01-21T08:02:55Z) - Semi-Supervised Vision Transformers [76.83020291497895]
半教師付き画像分類のための視覚変換器の訓練について検討する。
半教師付き ImageNet 設定では,ビジョントランスフォーマーの性能が良くない。
CNNは小さなラベル付きデータ構造において優れた結果を得る。
論文 参考訳(メタデータ) (2021-11-22T09:28:13Z) - Container: Context Aggregation Network [83.12004501984043]
最近の発見は、従来の畳み込みやトランスフォーマーコンポーネントを使わずに、シンプルなベースのソリューションが効果的な視覚表現を生成できることを示している。
マルチヘッドコンテキストアグリゲーションのための汎用ビルディングブロックCONText Ion NERtwokを提案する。
より大規模な入力画像解像度に依存する下流タスクにはスケールしないTransformerベースの手法とは対照的に、当社の効率的なネットワークであるModellightは、オブジェクト検出やインスタンスセグメンテーションネットワークに利用することができる。
論文 参考訳(メタデータ) (2021-06-02T18:09:11Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - Rethinking Semantic Segmentation from a Sequence-to-Sequence Perspective
with Transformers [149.78470371525754]
セマンティックセグメンテーションをシーケンスからシーケンスへの予測タスクとして扱う。
具体的には、イメージをパッチのシーケンスとしてエンコードするために純粋なトランスをデプロイします。
トランスのすべての層でモデル化されたグローバルコンテキストにより、このエンコーダは、SETR(SEgmentation TRansformer)と呼ばれる強力なセグメンテーションモデルを提供するための単純なデコーダと組み合わせることができる。
SETRはADE20K(50.28% mIoU)、Pascal Context(55.83% mIoU)、およびCityscapesの競争力のある結果に関する最新技術を達成している。
論文 参考訳(メタデータ) (2020-12-31T18:55:57Z) - Test-Time Adaptable Neural Networks for Robust Medical Image
Segmentation [9.372152932156293]
畳み込みニューラルネットワーク(CNN)は、教師付き学習問題に対して非常にうまく機能する。
医用画像のセグメンテーションにおいて、この前提は、取得の詳細の観点から、トレーニング画像とテスト画像のミスマッチがある場合に違反する。
比較的浅い画像正規化CNNと、正規化画像を分割する深いCNNの2つのサブネットワークの結合としてセグメンテーションCNNを設計する。
論文 参考訳(メタデータ) (2020-04-09T16:57:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。