論文の概要: TFCNs: A CNN-Transformer Hybrid Network for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2207.03450v1
- Date: Thu, 7 Jul 2022 17:28:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 15:00:39.338984
- Title: TFCNs: A CNN-Transformer Hybrid Network for Medical Image Segmentation
- Title(参考訳): TFCNs:医療画像分割のためのCNNトランスフォーマーハイブリッドネットワーク
- Authors: Zihan Li, Dihan Li, Cangbai Xu, Weice Wang, Qingqi Hong, Qingde Li,
Jie Tian
- Abstract要約: 本稿では,TFCN (Transformers for Fully Convolutional denseNets) を提案する。
我々はTFCNがSynapseデータセットで83.72%のダイススコアで最先端のパフォーマンスを達成可能であることを示す。
- 参考スコア(独自算出の注目度): 4.768284586442054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image segmentation is one of the most fundamental tasks concerning
medical information analysis. Various solutions have been proposed so far,
including many deep learning-based techniques, such as U-Net, FC-DenseNet, etc.
However, high-precision medical image segmentation remains a highly challenging
task due to the existence of inherent magnification and distortion in medical
images as well as the presence of lesions with similar density to normal
tissues. In this paper, we propose TFCNs (Transformers for Fully Convolutional
denseNets) to tackle the problem by introducing ResLinear-Transformer
(RL-Transformer) and Convolutional Linear Attention Block (CLAB) to
FC-DenseNet. TFCNs is not only able to utilize more latent information from the
CT images for feature extraction, but also can capture and disseminate semantic
features and filter non-semantic features more effectively through the CLAB
module. Our experimental results show that TFCNs can achieve state-of-the-art
performance with dice scores of 83.72\% on the Synapse dataset. In addition, we
evaluate the robustness of TFCNs for lesion area effects on the COVID-19 public
datasets. The Python code will be made publicly available on
https://github.com/HUANGLIZI/TFCNs.
- Abstract(参考訳): 医療画像分割は医療情報分析に関する最も基本的な課題の1つである。
これまでに、U-NetやFC-DenseNetなど、ディープラーニングベースのテクニックを含む、さまざまなソリューションが提案されている。
しかし, 医用画像に内在する拡大や歪みの存在, 正常な組織に類似した病変の存在など, 高精度な医用画像分割は依然として極めて困難な課題である。
本稿では, FC-DenseNet に ResLinear-Transformer (RL-Transformer) と Convolutional Linear Attention Block (CLAB) を導入することで, この問題に対処する TFCN を提案する。
TFCNsはCT画像からより潜伏した情報を特徴抽出に利用できるだけでなく、意味的特徴をキャプチャして拡散し、CLABモジュールを通してより効果的に非意味的特徴をフィルタリングすることができる。
実験の結果,TFCNsはSynapseデータセット上で83.72\%のダイススコアで最先端の性能を達成できることがわかった。
また,tfcnsのロバスト性を評価し,covid-19データセットの病巣領域への影響について検討した。
Pythonコードはhttps://github.com/HUANGLIZI/TFCNsで公開される。
関連論文リスト
- TransResNet: Integrating the Strengths of ViTs and CNNs for High Resolution Medical Image Segmentation via Feature Grafting [6.987177704136503]
医用画像領域で高解像度画像が好ましいのは、基礎となる方法の診断能力を大幅に向上させるためである。
医用画像セグメンテーションのための既存のディープラーニング技術のほとんどは、空間次元が小さい入力画像に最適化されており、高解像度画像では不十分である。
我々はTransResNetという並列処理アーキテクチャを提案し、TransformerとCNNを並列的に組み合わせ、マルチ解像度画像から特徴を独立して抽出する。
論文 参考訳(メタデータ) (2024-10-01T18:22:34Z) - BEFUnet: A Hybrid CNN-Transformer Architecture for Precise Medical Image
Segmentation [0.0]
本稿では,医療画像の正確な分割のために,身体情報とエッジ情報の融合を強化するBEFUnetという,革新的なU字型ネットワークを提案する。
BEFUnetは、新しいローカル・クロス・アテンション・フィーチャー(LCAF)融合モジュール、新しいダブル・レベル・フュージョン(DLF)モジュール、デュアルブランチ・エンコーダの3つの主要モジュールから構成されている。
LCAFモジュールは、2つのモダリティの間に空間的に近接する特徴に対して、局所的な相互注意を選択的に行うことにより、エッジとボディの特徴を効率よく融合させる。
論文 参考訳(メタデータ) (2024-02-13T21:03:36Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - HistoSeg : Quick attention with multi-loss function for multi-structure
segmentation in digital histology images [0.696194614504832]
医療画像のセグメンテーションは、コンピュータ支援による診断、手術、治療を支援する。
一般化デコーダネットワーク,クイックアテンションモジュール,マルチロス関数を提案する。
医用画像セグメンテーション用データセットであるMoNuSegとGlaSにおいて,提案するネットワークの有効性を評価する。
論文 参考訳(メタデータ) (2022-09-01T21:10:00Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - LEFM-Nets: Learnable Explicit Feature Map Deep Networks for Segmentation
of Histopathological Images of Frozen Sections [0.10152838128195464]
学習可能な明示的特徴写像層によって誘導される低次元部分空間に既存のDNを埋め込むフレームワークを提案する。
ヘマトキシリンおよびエオシン染色凍結部位の画像から,肝臓の大腸腺癌の分画に新しいLEFM-Netを応用した。
論文 参考訳(メタデータ) (2022-04-14T13:27:45Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Transformer-Unet: Raw Image Processing with Unet [4.7944896477309555]
Unetの機能マップの代わりに、生画像にトランスフォーマーモジュールを追加することで、Transformer-Unetを提案する。
実験では、エンド・ツー・エンドのネットワークを構築し、従来の多くのUnetベースのアルゴリズムよりもセグメンテーション結果を得る。
論文 参考訳(メタデータ) (2021-09-17T09:03:10Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。