論文の概要: CECT: Controllable Ensemble CNN and Transformer for COVID-19 image
classification by capturing both local and global image features
- arxiv url: http://arxiv.org/abs/2302.02314v1
- Date: Sun, 5 Feb 2023 06:27:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 18:51:38.612179
- Title: CECT: Controllable Ensemble CNN and Transformer for COVID-19 image
classification by capturing both local and global image features
- Title(参考訳): cect: 局所的およびグローバルな画像特徴を捉えたcovid-19画像分類のための制御可能なアンサンブルcnnとtransformer
- Authors: Zhaoshan Liu, Lei Shen
- Abstract要約: 我々は制御可能なアンサンブルCNNとトランスフォーマーによるCECTという新しい分類ネットワークを開発した。
CECTはマルチローカルとグローバルの両方のスケールで機能をキャプチャできる。
我々は、診断を支援するために、他の医療画像分類シナリオでもCECTを使用できると考えている。
- 参考スコア(独自算出の注目度): 11.324221827236018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: Most computer vision models are developed based on either
convolutional neural network (CNN) or transformer, while the former (latter)
method captures local (global) features. To relieve model performance
limitations due to the lack of global (local) features, we develop a novel
classification network named CECT by controllable ensemble CNN and transformer.
Methods: The proposed CECT is composed of a CNN-based encoder block, a
deconvolution-ensemble decoder block, and a transformer-based classification
block. Different from conventional CNN- or transformer-based methods, our CECT
can capture features at both multi-local and global scales, and the
contribution of local features at different scales can be controlled with the
proposed ensemble coefficients. Results: We evaluate CECT on two public
COVID-19 datasets and it outperforms other state-of-the-art methods on all
evaluation metrics. Conclusion: With remarkable feature capture ability, we
believe CECT can also be used in other medical image classification scenarios
to assist the diagnosis.
- Abstract(参考訳): 目的:ほとんどのコンピュータビジョンモデルは畳み込みニューラルネットワーク(cnn)またはトランスフォーマ(transformer)に基づいて開発されている。
グローバルな(ローカルな)特徴の欠如によるモデル性能制限を緩和するため,制御可能なアンサンブルCNNとトランスフォーマーによるCECTという新しい分類ネットワークを開発した。
方法:提案するcectは,cnnベースのエンコーダブロック,デコンボリューション・センスブルデコーダブロック,トランスフォーマベースの分類ブロックで構成される。
従来のCNN法やトランスフォーマー法とは異なり,CECTではマルチローカルとグローバルの両スケールで特徴を捉えることができ,異なるスケールでの局所特徴の寄与は,提案したアンサンブル係数で制御できる。
結果: CECTを2つの公開COVID-19データセットで評価し、すべての評価指標で他の最先端手法よりも優れています。
結論: 著明な特徴捕捉能を有するcectは, 診断支援のために他の医用画像分類シナリオでも使用できると考えられる。
関連論文リスト
- Capturing Local and Global Features in Medical Images by Using Ensemble
CNN-Transformer [0.0]
本稿では,医療画像解析のための制御可能アンサンブル変換器とCNN (CNN) という分類モデルを提案する。
CETCモデルは、畳み込みニューラルネットワーク(CNN)とトランスフォーマーの強力な能力を組み合わせて、局所的特徴とグローバル的特徴の両方を効果的に捉える。
注目すべきは、このモデルは様々な評価指標で既存の最先端モデルを上回っていることだ。
論文 参考訳(メタデータ) (2023-11-03T05:55:28Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - TEC-Net: Vision Transformer Embrace Convolutional Neural Networks for
Medical Image Segmentation [20.976167468217387]
医用画像セグメンテーション(TEC-Net)のための畳み込みニューラルネットワークを取り入れた視覚変換器を提案する。
ネットワークには2つの利点がある。第1に、動的変形可能な畳み込み(DDConv)はCNNブランチで設計されており、固定サイズの畳み込みカーネルを用いた適応的特徴抽出の難しさを克服するだけでなく、異なる入力が同じ畳み込みカーネルパラメータを共有する欠陥を解決する。
実験の結果,提案するTEC-Netは,CNNやTransformerネットワークを含むSOTA法よりも医用画像のセグメンテーションが優れていることがわかった。
論文 参考訳(メタデータ) (2023-06-07T01:14:16Z) - CiT-Net: Convolutional Neural Networks Hand in Hand with Vision
Transformers for Medical Image Segmentation [10.20771849219059]
医用画像分割のための畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(CiT-Net)のハイブリッドアーキテクチャを提案する。
我々のCit-Netは、一般的なSOTA法よりも優れた医用画像セグメンテーション結果を提供する。
論文 参考訳(メタデータ) (2023-06-06T03:22:22Z) - ConvFormer: Combining CNN and Transformer for Medical Image Segmentation [17.88894109620463]
医用画像分割のための階層型CNNとTransformerハイブリッドアーキテクチャであるConvFormerを提案する。
ゼロからトレーニングされたConvFormerは、さまざまなCNNやTransformerベースのアーキテクチャより優れ、最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-11-15T23:11:22Z) - HiFormer: Hierarchical Multi-scale Representations Using Transformers
for Medical Image Segmentation [3.478921293603811]
HiFormerは、医用画像セグメンテーションのためのCNNとトランスフォーマーを効率的にブリッジする新しい方法である。
グローバルな特徴とローカルな特徴の微細融合を確保するため,エンコーダ・デコーダ構造のスキップ接続におけるDouble-Level Fusion (DLF)モジュールを提案する。
論文 参考訳(メタデータ) (2022-07-18T11:30:06Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - X-volution: On the unification of convolution and self-attention [52.80459687846842]
本稿では,畳み込み操作と自己注意操作の両方からなるマルチブランチ基本モジュールを提案する。
提案したX-進化は、非常に競争力のある視覚的理解の改善を実現する。
論文 参考訳(メタデータ) (2021-06-04T04:32:02Z) - Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation [63.46694853953092]
Swin-Unetは、医用画像セグメンテーション用のUnetライクなトランスフォーマーである。
トークン化されたイメージパッチは、TransformerベースのU字型デコーダデコーダアーキテクチャに供給される。
論文 参考訳(メタデータ) (2021-05-12T09:30:26Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。