論文の概要: Edge-Gated CNNs for Volumetric Semantic Segmentation of Medical Images
- arxiv url: http://arxiv.org/abs/2002.04207v1
- Date: Tue, 11 Feb 2020 05:08:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 02:42:03.046719
- Title: Edge-Gated CNNs for Volumetric Semantic Segmentation of Medical Images
- Title(参考訳): 医用画像のボリュームセマンティクスセグメンテーションのためのエッジゲートcnn
- Authors: Ali Hatamizadeh, Demetri Terzopoulos and Andriy Myronenko
- Abstract要約: 医用画像では、専門家の手動セグメンテーションはしばしば臓器の境界に依存する。
既存のエンコーダ・デコーダアーキテクチャで使用可能な,Edge-Gated CNN (EG-CNN) と呼ばれるプラグイン・アンド・プレイモジュールを提案する。
各種CNNを用いたEG-CNNの有効性を2つの公開データセット上で評価した。
- 参考スコア(独自算出の注目度): 11.098969286372778
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Textures and edges contribute different information to image recognition.
Edges and boundaries encode shape information, while textures manifest the
appearance of regions. Despite the success of Convolutional Neural Networks
(CNNs) in computer vision and medical image analysis applications,
predominantly only texture abstractions are learned, which often leads to
imprecise boundary delineations. In medical imaging, expert manual segmentation
often relies on organ boundaries; for example, to manually segment a liver, a
medical practitioner usually identifies edges first and subsequently fills in
the segmentation mask. Motivated by these observations, we propose a
plug-and-play module, dubbed Edge-Gated CNNs (EG-CNNs), that can be used with
existing encoder-decoder architectures to process both edge and texture
information. The EG-CNN learns to emphasize the edges in the encoder, to
predict crisp boundaries by an auxiliary edge supervision, and to fuse its
output with the original CNN output. We evaluate the effectiveness of the
EG-CNN with various mainstream CNNs on two publicly available datasets, BraTS
19 and KiTS 19 for brain tumor and kidney semantic segmentation. We demonstrate
how the addition of EG-CNN consistently improves segmentation accuracy and
generalization performance.
- Abstract(参考訳): テクスチャとエッジは画像認識に異なる情報をもたらす。
エッジとバウンダリは形状情報をエンコードし、テクスチャは領域の外観を示す。
コンピュータビジョンと医用画像解析アプリケーションにおける畳み込みニューラルネットワーク(CNN)の成功にもかかわらず、主にテクスチャ抽象化が学習され、しばしば不正確な境界線化につながる。
医療画像では、専門家の手動セグメンテーションはしばしば臓器の境界に依存しており、例えば、手動で肝臓をセグメンテーションするために、医療従事者はまずエッジを特定し、その後セグメンテーションマスクを埋めます。
これらの観測により,既存のエンコーダデコーダアーキテクチャを用いてエッジ情報とテクスチャ情報の両方を処理可能な,Edge-Gated CNN (EG-CNN) と呼ばれるプラグイン・アンド・プレイモジュールを提案する。
EG-CNNは、エンコーダのエッジを強調することを学び、補助エッジ監視によってクリップ境界を予測し、元のCNN出力と出力を融合する。
各種CNNを用いたEG-CNNの有効性を,脳腫瘍と腎臓のセマンティックセグメンテーションのためのBraTS 19とKiTS 19の2つの公開データセットで評価した。
EG-CNNの追加により,セグメント化精度と一般化性能が一貫して向上することを示す。
関連論文リスト
- Leveraging CAM Algorithms for Explaining Medical Semantic Segmentation [4.818865062632567]
畳み込みニューラルネットワーク(CNN)は、近年のセグメンテーションタスクにおいて、一般的な結果を実現している。
CNNを解釈する1つの方法は、ヒートマップを表すクラスアクティベーションマップ(CAM)を使用することである。
本稿では,既存の分類法とセグメンテーションに基づく手法の間で,より詳細で説明可能な,一貫性のある結果の転送を提案する。
論文 参考訳(メタデータ) (2024-09-30T13:43:00Z) - Contextual Embedding Learning to Enhance 2D Networks for Volumetric Image Segmentation [5.995633685952995]
2次元畳み込みニューラルネットワーク(CNN)は、体積データの空間的相関をほとんど利用できない。
本研究では,空間情報を適切にキャプチャする2次元CNNを実現するためのコンテキスト埋め込み学習手法を提案する。
提案手法では,学習した埋め込みとスライスワイズマッチングをソフトキューとして活用し,ネットワークを誘導する。
論文 参考訳(メタデータ) (2024-04-02T08:17:39Z) - BEFUnet: A Hybrid CNN-Transformer Architecture for Precise Medical Image
Segmentation [0.0]
本稿では,医療画像の正確な分割のために,身体情報とエッジ情報の融合を強化するBEFUnetという,革新的なU字型ネットワークを提案する。
BEFUnetは、新しいローカル・クロス・アテンション・フィーチャー(LCAF)融合モジュール、新しいダブル・レベル・フュージョン(DLF)モジュール、デュアルブランチ・エンコーダの3つの主要モジュールから構成されている。
LCAFモジュールは、2つのモダリティの間に空間的に近接する特徴に対して、局所的な相互注意を選択的に行うことにより、エッジとボディの特徴を効率よく融合させる。
論文 参考訳(メタデータ) (2024-02-13T21:03:36Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Convolutional neural networks for medical image segmentation [6.692460499366963]
我々は、医療画像のセグメンテーションに焦点をあてて、畳み込みニューラルネットワーク(CNN)の本質的な側面について考察する。
まず,CNNアーキテクチャについて考察し,データの空間的起源,ボクセル的分類,受容場について考察する。
第二に、入出力ペアのサンプリングについて考察し、ボクセルの分類、パッチサイズ、受容場との相互作用を強調した。
論文 参考訳(メタデータ) (2022-11-17T14:32:01Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - TransUNet: Transformers Make Strong Encoders for Medical Image
Segmentation [78.01570371790669]
医用画像のセグメンテーションは医療システムの開発に必須の前提条件である。
様々な医療画像セグメンテーションタスクにおいて、U-Netとして知られるu字型アーキテクチャがデファクトスタンダードとなっている。
医用画像セグメンテーションの強力な代替手段として,トランスフォーマーとU-Netの両方を有効活用するTransUNetを提案する。
論文 参考訳(メタデータ) (2021-02-08T16:10:50Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z) - Boundary-aware Context Neural Network for Medical Image Segmentation [15.585851505721433]
医用画像のセグメンテーションは、さらなる臨床分析と疾患診断のための信頼性の高い基盤を提供することができる。
既存のCNNベースのほとんどの手法は、正確なオブジェクト境界のない不満足なセグメンテーションマスクを生成する。
本稿では,2次元医用画像分割のための境界認識コンテキストニューラルネットワーク(BA-Net)を定式化する。
論文 参考訳(メタデータ) (2020-05-03T02:35:49Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。