論文の概要: Channel Boosted CNN-Transformer-based Multi-Level and Multi-Scale Nuclei Segmentation
- arxiv url: http://arxiv.org/abs/2407.19186v1
- Date: Sat, 27 Jul 2024 05:54:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 19:21:07.531126
- Title: Channel Boosted CNN-Transformer-based Multi-Level and Multi-Scale Nuclei Segmentation
- Title(参考訳): チャネルブーストCNN変換器を用いたマルチレベル・マルチスケール核セグメンテーション
- Authors: Zunaira Rauf, Abdul Rehman Khan, Asifullah Khan,
- Abstract要約: 核セグメンテーションは、がんの診断や治療計画など、計算病理学の様々な応用に欠かせない基礎である。
正確なセグメンテーションを達成することは、クラスター化された核、サイズと形状における高いクラス内変動、他の細胞との類似、核と背景の間の色やコントラストの変化など、依然として困難である。
我々は,CNNとトランスフォーマーの長所を活かした2つのCNN-Transformerアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.40964539027092917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate nuclei segmentation is an essential foundation for various applications in computational pathology, including cancer diagnosis and treatment planning. Even slight variations in nuclei representations can significantly impact these downstream tasks. However, achieving accurate segmentation remains challenging due to factors like clustered nuclei, high intra-class variability in size and shape, resemblance to other cells, and color or contrast variations between nuclei and background. Despite the extensive utilization of Convolutional Neural Networks (CNNs) in medical image segmentation, they may have trouble capturing long-range dependencies crucial for accurate nuclei delineation. Transformers address this limitation but might miss essential low-level features. To overcome these limitations, we utilized CNN-Transformer-based techniques for nuclei segmentation in H&E stained histology images. In this work, we proposed two CNN-Transformer architectures, Nuclei Hybrid Vision Transformer (NucleiHVT) and Channel Boosted Nuclei Hybrid Vision Transformer (CB-NucleiHVT), that leverage the strengths of both CNNs and Transformers to effectively learn nuclei boundaries in multi-organ histology images. The first architecture, NucleiHVT is inspired by the UNet architecture and incorporates the dual attention mechanism to capture both multi-level and multi-scale context effectively. The CB-NucleiHVT network, on the other hand, utilizes the concept of channel boosting to learn diverse feature spaces, enhancing the model's ability to distinguish subtle variations in nuclei characteristics. Detailed evaluation of two medical image segmentation datasets shows that the proposed architectures outperform existing CNN-based, Transformer-based, and hybrid methods. The proposed networks demonstrated effective results both in terms of quantitative metrics, and qualitative visual assessment.
- Abstract(参考訳): 正確な核分割は、癌診断や治療計画など、計算病理学の様々な応用に欠かせない基礎である。
核表現のわずかなバリエーションでさえ、これらの下流のタスクに大きな影響を及ぼす。
しかし、クラスター化された核、サイズと形状の高いクラス内変動、他の細胞との類似、核と背景の間の色やコントラストの変化など、正確なセグメンテーションを達成することは依然として困難である。
医用画像セグメンテーションにおける畳み込みニューラルネットワーク(CNN)の広範な利用にもかかわらず、正確な核のデライン化に不可欠な長距離依存を捉えるのに苦労する可能性がある。
トランスフォーマーはこの制限に対処するが、必須の低レベル機能に欠ける可能性がある。
これらの限界を克服するため,我々は,H&E染色組織像の核分割にCNN-Transformer を用いた手法を応用した。
本研究では,CNN-TransformerアーキテクチャであるNuclei Hybrid Vision Transformer (NucleiHVT) とChannel Boosted Nuclei Hybrid Vision Transformer (CB-NucleiHVT) を提案し,CNNとTransformerの長所を利用して,マルチ組織組織像の核境界を効果的に学習する。
最初のアーキテクチャであるNucleiHVTはUNetアーキテクチャにインスパイアされ、マルチレベルとマルチスケールの両方のコンテキストを効果的にキャプチャするデュアルアテンション機構が組み込まれている。
一方、CB-NucleiHVTネットワークはチャネルブースティングの概念を利用して多様な特徴空間を学習し、核特性の微妙な変化を識別するモデルの能力を高める。
2つの医用画像セグメンテーションデータセットの詳細な評価は、提案アーキテクチャが既存のCNNベース、トランスフォーマーベース、ハイブリッドメソッドよりも優れていることを示している。
提案したネットワークは,定量的指標と質的視覚評価の両面で有効であることを示した。
関連論文リスト
- TBConvL-Net: A Hybrid Deep Learning Architecture for Robust Medical Image Segmentation [6.013821375459473]
医用画像セグメンテーションのための新しいディープラーニングアーキテクチャを提案する。
提案モデルでは,10の公開データセット上でのテクニックの現状に対して,一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-09-05T09:14:03Z) - CNN-Transformer Rectified Collaborative Learning for Medical Image Segmentation [60.08541107831459]
本稿では,医用画像セグメンテーションのための強力なCNNベースモデルとトランスフォーマーベースモデルを学習するための,CNN-Transformer修正協調学習フレームワークを提案する。
具体的には,学生ソフトラベルの誤り領域を適応的に選択・修正する基礎的真理を取り入れた修正ロジット・ワイド・コラボレーティブ・ラーニング(RLCL)戦略を提案する。
また,機能空間におけるCNNベースモデルとTransformerベースモデル間の効果的な知識伝達を実現するために,クラス認識型特徴量協調学習(CFCL)戦略を提案する。
論文 参考訳(メタデータ) (2024-08-25T01:27:35Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - Transformer-CNN Fused Architecture for Enhanced Skin Lesion Segmentation [0.0]
畳み込みニューラルネットワーク(CNN)は、非常に高度な医療画像セグメンテーションを持つ。
CNNは、長距離依存関係の学習とグローバルコンテキストの取得に苦労している。
我々は、トランスフォーマーがグローバルな依存関係をキャプチャする能力と、CNNが低レベル空間の詳細をキャプチャする能力を組み合わせたハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-10T18:36:14Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - MaxViT-UNet: Multi-Axis Attention for Medical Image Segmentation [0.46040036610482665]
MaxViT-UNetは医療画像セグメンテーションのためのハイブリッドビジョントランス (CNN-Transformer) である。
提案するハイブリッドデコーダは,各復号段階における畳み込み機構と自己保持機構の両方のパワーを利用するように設計されている。
復号器の各段階における多軸自己アテンションの包含は、対象領域と背景領域の識別能力を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-15T07:23:54Z) - Structure Embedded Nucleus Classification for Histopathology Images [51.02953253067348]
ほとんどのニューラルネットワークに基づく手法は、局所的な畳み込みの受容領域に影響を受けている。
本稿では,核輪郭を順にサンプリングした点列に変換する新しい多角構造特徴学習機構を提案する。
次に、核をノードとするグラフ構造に組織像を変換し、その表現に核の空間分布を埋め込むグラフニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2023-02-22T14:52:06Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Scopeformer: n-CNN-ViT Hybrid Model for Intracranial Hemorrhage
Classification [0.0]
本稿では、視覚変換器(ViT)モデルを改善するために、畳み込みニューラルネットワーク(CNN)のアンサンブルからなる特徴生成器を提案する。
複数のXception CNNを用いて抽出した特徴マップを徐々に積み重ねることで、VTモデルのための特徴量豊富な入力を開発することができることを示す。
論文 参考訳(メタデータ) (2021-07-07T20:20:24Z) - Learning Interpretable Microscopic Features of Tumor by Multi-task
Adversarial CNNs To Improve Generalization [1.7371375427784381]
既存のCNNモデルはブラックボックスとして機能し、医師が重要な診断機能がモデルによって使用されることを保証しない。
ここでは,マルチタスクと敵の損失を両立させる不確実性に基づく重み付けの組み合わせをエンド・ツー・エンドで学習することにより,病理的特徴に焦点を合わせることを推奨する。
AUC 0.89 (0.01) がベースラインであるAUC 0.86 (0.005) に対して最も高い値を示した。
論文 参考訳(メタデータ) (2020-08-04T12:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。