論文の概要: CECT: Controllable Ensemble CNN and Transformer for COVID-19 image
classification by capturing both local and global image features
- arxiv url: http://arxiv.org/abs/2302.02314v1
- Date: Sun, 5 Feb 2023 06:27:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 18:51:38.612179
- Title: CECT: Controllable Ensemble CNN and Transformer for COVID-19 image
classification by capturing both local and global image features
- Title(参考訳): cect: 局所的およびグローバルな画像特徴を捉えたcovid-19画像分類のための制御可能なアンサンブルcnnとtransformer
- Authors: Zhaoshan Liu, Lei Shen
- Abstract要約: 我々は制御可能なアンサンブルCNNとトランスフォーマーによるCECTという新しい分類ネットワークを開発した。
CECTはマルチローカルとグローバルの両方のスケールで機能をキャプチャできる。
我々は、診断を支援するために、他の医療画像分類シナリオでもCECTを使用できると考えている。
- 参考スコア(独自算出の注目度): 11.324221827236018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: Most computer vision models are developed based on either
convolutional neural network (CNN) or transformer, while the former (latter)
method captures local (global) features. To relieve model performance
limitations due to the lack of global (local) features, we develop a novel
classification network named CECT by controllable ensemble CNN and transformer.
Methods: The proposed CECT is composed of a CNN-based encoder block, a
deconvolution-ensemble decoder block, and a transformer-based classification
block. Different from conventional CNN- or transformer-based methods, our CECT
can capture features at both multi-local and global scales, and the
contribution of local features at different scales can be controlled with the
proposed ensemble coefficients. Results: We evaluate CECT on two public
COVID-19 datasets and it outperforms other state-of-the-art methods on all
evaluation metrics. Conclusion: With remarkable feature capture ability, we
believe CECT can also be used in other medical image classification scenarios
to assist the diagnosis.
- Abstract(参考訳): 目的:ほとんどのコンピュータビジョンモデルは畳み込みニューラルネットワーク(cnn)またはトランスフォーマ(transformer)に基づいて開発されている。
グローバルな(ローカルな)特徴の欠如によるモデル性能制限を緩和するため,制御可能なアンサンブルCNNとトランスフォーマーによるCECTという新しい分類ネットワークを開発した。
方法:提案するcectは,cnnベースのエンコーダブロック,デコンボリューション・センスブルデコーダブロック,トランスフォーマベースの分類ブロックで構成される。
従来のCNN法やトランスフォーマー法とは異なり,CECTではマルチローカルとグローバルの両スケールで特徴を捉えることができ,異なるスケールでの局所特徴の寄与は,提案したアンサンブル係数で制御できる。
結果: CECTを2つの公開COVID-19データセットで評価し、すべての評価指標で他の最先端手法よりも優れています。
結論: 著明な特徴捕捉能を有するcectは, 診断支援のために他の医用画像分類シナリオでも使用できると考えられる。
関連論文リスト
- Renormalized Connection for Scale-preferred Object Detection in Satellite Imagery [51.83786195178233]
我々は、効率的な特徴抽出の観点から再正規化群理論を実装するために、知識発見ネットワーク(KDN)を設計する。
KDN上の再正規化接続(RC)は、マルチスケール特徴の「相乗的焦点」を可能にする。
RCはFPNベースの検出器のマルチレベル特徴の分割・対数機構を幅広いスケールで予測されたタスクに拡張する。
論文 参考訳(メタデータ) (2024-09-09T13:56:22Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Capturing Local and Global Features in Medical Images by Using Ensemble
CNN-Transformer [0.0]
本稿では,医療画像解析のための制御可能アンサンブル変換器とCNN (CNN) という分類モデルを提案する。
CETCモデルは、畳み込みニューラルネットワーク(CNN)とトランスフォーマーの強力な能力を組み合わせて、局所的特徴とグローバル的特徴の両方を効果的に捉える。
注目すべきは、このモデルは様々な評価指標で既存の最先端モデルを上回っていることだ。
論文 参考訳(メタデータ) (2023-11-03T05:55:28Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Vision Transformer using Low-level Chest X-ray Feature Corpus for
COVID-19 Diagnosis and Severity Quantification [25.144248675578286]
バックボーンネットワークから得られた低レベルCXR特徴コーパスを利用した新しいビジョントランスフォーマーを提案する。
バックボーンネットワークはまず、一般的な異常発見を検出するために、大きなパブリックデータセットでトレーニングされる。
次に、バックボーンネットワークからの埋め込み機能は、COVID-19の診断および重症度定量のためのトランスフォーマーモデルのコーポラとして使用されます。
論文 参考訳(メタデータ) (2021-04-15T04:54:48Z) - Deep learning-based COVID-19 pneumonia classification using chest CT
images: model generalizability [54.86482395312936]
深層学習(DL)分類モデルは、異なる国の3DCTデータセット上で、COVID-19陽性患者を特定するために訓練された。
我々は、データセットと72%の列車、8%の検証、20%のテストデータを組み合わせたDLベースの9つの同一分類モデルを訓練した。
複数のデータセットでトレーニングされ、トレーニングに使用されるデータセットの1つからテストセットで評価されたモデルは、よりよいパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-02-18T21:14:52Z) - Explainable-by-design Semi-Supervised Representation Learning for
COVID-19 Diagnosis from CT Imaging [23.918269366873567]
本稿では,変分オートエンコーダを用いて効率的な特徴埋め込みを抽出する半教師付き分類パイプラインに基づく説明可能なディープラーニング手法を提案する。
説明可能な分類結果から, 提案する診断システムは, 新型コロナウイルスの分類に極めて有効である。
論文 参考訳(メタデータ) (2020-11-23T20:51:22Z) - COVID-FACT: A Fully-Automated Capsule Network-based Framework for
Identification of COVID-19 Cases from Chest CT scans [29.327290778950324]
我々は「COVID-FACT」と呼ばれる新型コロナウイルス陽性症例の同定のための2段階完全自動化フレームワークを提案する。
COVID-FACTは感染したスライスを検出し、社内CTスキャンデータセットを使用して陽性のCOVID-19患者を特定する。
この実験に基づいて、COVID-FACTは90.82%の精度、94.55%の感度、86.04%の特異度、および0.98のエリアアンダー・ザ・カーブ(AUC)を達成できるが、監督やアノテーションははるかに少ない。
論文 参考訳(メタデータ) (2020-10-30T03:30:22Z) - Multilabel 12-Lead Electrocardiogram Classification Using Gradient
Boosting Tree Ensemble [64.29529357862955]
我々は,心電図の診断を分類するために,形態や信号処理機能に適合した勾配強化木のアンサンブルを用いたアルゴリズムを構築した。
各リードについて、心拍変動、PQRSTテンプレート形状、全信号波形から特徴を導出する。
各クラスに属するECGインスタンスの確率を予測するため、全12項目の特徴と合わせて、勾配を増す決定ツリーの集合に適合する。
論文 参考訳(メタデータ) (2020-10-21T18:11:36Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Contrastive Cross-site Learning with Redesigned Net for COVID-19 CT
Classification [20.66003113364796]
新型コロナウイルス感染症(COVID-19)のパンデミックにより、世界の公衆衛生危機が数百カ国で拡大している。
画像解釈の面倒な作業量を削減するとともに、臨床診断を支援するために、CT画像を用いたCOVID-19識別自動化ツールの開発が望まれている。
本稿では、異種データセットを効果的に学習することで、正確な新型コロナウイルス識別を行うための新しい共同学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-15T11:09:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。