論文の概要: Capturing Local and Global Features in Medical Images by Using Ensemble
CNN-Transformer
- arxiv url: http://arxiv.org/abs/2311.01731v1
- Date: Fri, 3 Nov 2023 05:55:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 14:57:26.467766
- Title: Capturing Local and Global Features in Medical Images by Using Ensemble
CNN-Transformer
- Title(参考訳): アンサンブルCNN変換器を用いた医用画像の局所的・グローバル的特徴のキャプチャ
- Authors: Javad Mirzapour Kaleybar, Hooman Saadat, Hooman Khaloo
- Abstract要約: 本稿では,医療画像解析のための制御可能アンサンブル変換器とCNN (CNN) という分類モデルを提案する。
CETCモデルは、畳み込みニューラルネットワーク(CNN)とトランスフォーマーの強力な能力を組み合わせて、局所的特徴とグローバル的特徴の両方を効果的に捉える。
注目すべきは、このモデルは様々な評価指標で既存の最先端モデルを上回っていることだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a groundbreaking classification model called the
Controllable Ensemble Transformer and CNN (CETC) for the analysis of medical
images. The CETC model combines the powerful capabilities of convolutional
neural networks (CNNs) and transformers to effectively capture both local and
global features present in medical images. The model architecture comprises
three main components: a convolutional encoder block (CEB), a
transposed-convolutional decoder block (TDB), and a transformer classification
block (TCB). The CEB is responsible for capturing multi-local features at
different scales and draws upon components from VGGNet, ResNet, and MobileNet
as backbones. By leveraging this combination, the CEB is able to effectively
detect and encode local features. The TDB, on the other hand, consists of
sub-decoders that decode and sum the captured features using ensemble
coefficients. This enables the model to efficiently integrate the information
from multiple scales. Finally, the TCB utilizes the SwT backbone and a
specially designed prediction head to capture global features, ensuring a
comprehensive understanding of the entire image. The paper provides detailed
information on the experimental setup and implementation, including the use of
transfer learning, data preprocessing techniques, and training settings. The
CETC model is trained and evaluated using two publicly available COVID-19
datasets. Remarkably, the model outperforms existing state-of-the-art models
across various evaluation metrics. The experimental results clearly demonstrate
the superiority of the CETC model, emphasizing its potential for accurately and
efficiently analyzing medical images.
- Abstract(参考訳): 本稿では,医療画像解析のための制御可能アンサンブル変換器とCNN (CNN) という,画期的な分類モデルを提案する。
CETCモデルは、畳み込みニューラルネットワーク(CNN)とトランスフォーマーの強力な能力を組み合わせて、医療画像に存在する局所的特徴とグローバル的特徴を効果的に捉える。
モデルアーキテクチャは、畳み込みエンコーダブロック(CEB)、転置畳み込みデコーダブロック(TDB)、トランスフォーマー分類ブロック(TCB)の3つの主要コンポーネントから構成される。
CEBは、異なるスケールで複数のローカル機能をキャプチャし、VGGNet、ResNet、MobileNetのコンポーネントをバックボーンとして描画する責任がある。
この組み合わせを利用することで、CEBはローカル機能を効果的に検出し、エンコードすることができる。
一方、TDBは、アンサンブル係数を用いてキャプチャされた特徴をデコードし、要約するサブデコーダで構成されている。
これにより、モデルは複数のスケールからの情報を効率的に統合できる。
最後に、TBはSwTバックボーンと特別に設計された予測ヘッドを使用して、グローバルな特徴を捉え、画像全体の包括的な理解を確保する。
この論文は、転送学習、データ前処理技術、トレーニング設定など、実験的なセットアップと実装に関する詳細な情報を提供する。
CETCモデルは、2つの公開可能なCOVID-19データセットを使用してトレーニングされ、評価される。
注目すべきは、このモデルは様々な評価指標で既存の最先端モデルを上回っていることだ。
実験の結果,CETCモデルの優位性を明らかに示し,医療画像の正確かつ効率的な解析の可能性を強調した。
関連論文リスト
- Swin Transformer for Robust Differentiation of Real and Synthetic Images: Intra- and Inter-Dataset Analysis [0.0]
本研究では,自然画像と合成画像の正確な識別のためのSwin Transformerモデルを提案する。
モデルの性能は、3つの異なるデータセットにわたるデータセット内およびデータセット間テストによって評価された。
論文 参考訳(メタデータ) (2024-09-07T06:43:17Z) - CFPFormer: Feature-pyramid like Transformer Decoder for Segmentation and Detection [1.837431956557716]
特徴ピラミッドは、医療画像のセグメンテーションやオブジェクト検出といったタスクのために、畳み込みニューラルネットワーク(CNN)やトランスフォーマーで広く採用されている。
本稿では,特徴ピラミッドと変圧器を統合したデコーダブロックを提案する。
本モデルでは,既存手法と比較して,小型物体の検出性能が向上する。
論文 参考訳(メタデータ) (2024-04-23T18:46:07Z) - BRAU-Net++: U-Shaped Hybrid CNN-Transformer Network for Medical Image Segmentation [11.986549780782724]
医用画像の正確な分割作業のために,BRAU-Net++ というハイブリッドで効果的な CNN-Transformer ネットワークを提案する。
具体的には、BRAU-Net++は、U字型エンコーダデコーダ構造を設計するために、コアビルディングブロックとしてバイレベルルーティングアテンションを使用する。
提案手法は,そのベースラインであるBRAU-Netを含む,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-01-01T10:49:09Z) - ConvFormer: Combining CNN and Transformer for Medical Image Segmentation [17.88894109620463]
医用画像分割のための階層型CNNとTransformerハイブリッドアーキテクチャであるConvFormerを提案する。
ゼロからトレーニングされたConvFormerは、さまざまなCNNやTransformerベースのアーキテクチャより優れ、最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-11-15T23:11:22Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - UNetFormer: A Unified Vision Transformer Model and Pre-Training
Framework for 3D Medical Image Segmentation [14.873473285148853]
UNetFormerと呼ばれる2つのアーキテクチャで構成され,3D Swin TransformerベースのエンコーダとConal Neural Network(CNN)とTransformerベースのデコーダを備えている。
提案モデルでは, 5つの異なる解像度でのスキップ接続により, エンコーダをデコーダにリンクする。
本稿では,ランダムにマスクされたトークンを予測する学習を通じて,エンコーダバックボーンの自己教師付き事前学習手法を提案する。
論文 参考訳(メタデータ) (2022-04-01T17:38:39Z) - ViTAEv2: Vision Transformer Advanced by Exploring Inductive Bias for
Image Recognition and Beyond [76.35955924137986]
我々は、内在性IBを畳み込み、すなわちViTAEから探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
我々は、ImageNet検証セット上で88.5%のTop-1分類精度と、ImageNet実検証セット上で最高の91.2%のTop-1分類精度を得る。
論文 参考訳(メタデータ) (2022-02-21T10:40:05Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。