論文の概要: DMC-Net: Lightweight Dynamic Multi-Scale and Multi-Resolution Convolution Network for Pancreas Segmentation in CT Images
- arxiv url: http://arxiv.org/abs/2410.02129v1
- Date: Thu, 3 Oct 2024 01:19:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 08:35:44.739763
- Title: DMC-Net: Lightweight Dynamic Multi-Scale and Multi-Resolution Convolution Network for Pancreas Segmentation in CT Images
- Title(参考訳): DMC-Net:CT画像における膵分画のための軽量動的マルチスケール・マルチリゾリューション・コンボリューション・ネットワーク
- Authors: Jin Yang, Daniel S. Marcus, Aristeidis Sotiras,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は医用画像セグメンテーションにおいて極めて有効である。
CNNは、臓器の形状や大きさの大きなオブジェクト間変異をモデル化し、グローバルな長距離コンテキスト情報を利用する場合に限られる。
我々は,動的マルチソリューション・コンボリューション(DMRC)と動的マルチスケール・コンボリューション(DMSC)モジュールを開発した。
- 参考スコア(独自算出の注目度): 1.9422777572345737
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) have shown great effectiveness in medical image segmentation. However, they may be limited in modeling large inter-subject variations in organ shapes and sizes and exploiting global long-range contextual information. This is because CNNs typically employ convolutions with fixed-sized local receptive fields and lack the mechanisms to utilize global information. To address these limitations, we developed Dynamic Multi-Resolution Convolution (DMRC) and Dynamic Multi-Scale Convolution (DMSC) modules. Both modules enhance the representation capabilities of single convolutions to capture varying scaled features and global contextual information. This is achieved in the DMRC module by employing a convolutional filter on images with different resolutions and subsequently utilizing dynamic mechanisms to model global inter-dependencies between features. In contrast, the DMSC module extracts features at different scales by employing convolutions with different kernel sizes and utilizing dynamic mechanisms to extract global contextual information. The utilization of convolutions with different kernel sizes in the DMSC module may increase computational complexity. To lessen this burden, we propose to use a lightweight design for convolution layers with a large kernel size. Thus, DMSC and DMRC modules are designed as lightweight drop-in replacements for single convolutions, and they can be easily integrated into general CNN architectures for end-to-end training. The segmentation network was proposed by incorporating our DMSC and DMRC modules into a standard U-Net architecture, termed Dynamic Multi-scale and Multi-resolution Convolution network (DMC-Net). The results demonstrate that our proposed DMSC and DMRC can enhance the representation capabilities of single convolutions and improve segmentation accuracy.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は医用画像セグメンテーションにおいて極めて有効である。
しかし、臓器の形状や大きさの大きなオブジェクト間変異をモデル化し、グローバルな長距離コンテキスト情報を活用することに制限があるかもしれない。
これは、CNNが典型的には固定サイズの局所受容場との畳み込みを採用しており、グローバル情報を利用するメカニズムが欠如しているためである。
これらの制約に対処するため,動的マルチソリューション・コンボリューション(DMRC)と動的マルチスケール・コンボリューション(DMSC)モジュールを開発した。
どちらのモジュールも単一の畳み込みの表現能力を強化し、様々な拡張された特徴とグローバルなコンテキスト情報をキャプチャする。
これはDMRCモジュールにおいて、解像度の異なる画像に畳み込みフィルタを用いることで実現され、続いて動的メカニズムを用いて特徴間のグローバルな相互依存性をモデル化する。
対照的に、DMSCモジュールは、異なるカーネルサイズで畳み込みを採用し、動的メカニズムを利用してグローバルなコンテキスト情報を抽出することで、異なるスケールで特徴を抽出する。
DMSCモジュールにおける異なるカーネルサイズでの畳み込みの利用は、計算複雑性を増大させる可能性がある。
この負担を軽減するため,カーネルサイズが大きい畳み込み層に軽量な設計を提案する。
したがって、DMSCとDMRCモジュールは単一の畳み込みに対する軽量なドロップイン置換として設計されており、エンドツーエンドのトレーニングのために一般的なCNNアーキテクチャに容易に統合できる。
このセグメンテーションネットワークは、DMSCとDMRCモジュールを標準のU-Netアーキテクチャに組み込んだもので、動的マルチスケール・マルチレゾリューション・コンボリューション・ネットワーク(DMC-Net)と呼ばれる。
その結果,提案するDMSCとDMRCは,単一畳み込みの表現能力を向上し,セグメンテーション精度を向上させることができた。
関連論文リスト
- Multiscale Encoder and Omni-Dimensional Dynamic Convolution Enrichment in nnU-Net for Brain Tumor Segmentation [9.39565041325745]
本研究では nnU-Net アーキテクチャを改良した新しいセグメンテーションアルゴリズムを提案する。
我々は、全次元動的畳み込み層を組み込むことにより従来の畳み込み層を強化し、特徴表現を改善した。
モデルの有効性はBraTS-2023チャレンジの多様なデータセットで実証される。
論文 参考訳(メタデータ) (2024-09-20T05:25:46Z) - A Multimodal Feature Distillation with CNN-Transformer Network for Brain Tumor Segmentation with Incomplete Modalities [15.841483814265592]
本稿では,CNN-Transformer Hybrid Network (MCTSeg) を用いたマルチモーダル特徴蒸留法を提案する。
CNN-Transformer ネットワークと Transformer の畳み込みブロックを併用して提案するモジュールの重要性について検討した。
論文 参考訳(メタデータ) (2024-04-22T09:33:44Z) - D-Net: Dynamic Large Kernel with Dynamic Feature Fusion for Volumetric Medical Image Segmentation [7.894630378784007]
動的大カーネル(DLK)および動的特徴融合(DFF)モジュールを提案する。
D-Netは、マルチスケールの大規模な受容場を効果的に利用し、グローバルな文脈情報を適応的に活用することができる。
論文 参考訳(メタデータ) (2024-03-15T20:49:43Z) - MCTNet: A Multi-Scale CNN-Transformer Network for Change Detection in
Optical Remote Sensing Images [7.764449276074902]
MCTNetと呼ばれるマルチスケールCNN変換器構造に基づくハイブリッドネットワークを提案する。
MCTNetは既存の最先端CD法よりも優れた検出性能が得られることを示す。
論文 参考訳(メタデータ) (2022-10-14T07:54:28Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - CM-GAN: Image Inpainting with Cascaded Modulation GAN and Object-Aware
Training [112.96224800952724]
複雑な画像に大きな穴をあける際の可視像構造を生成するためのカスケード変調GAN(CM-GAN)を提案する。
各デコーダブロックにおいて、まず大域変調を適用し、粗い意味認識合成構造を行い、次に大域変調の出力に空間変調を適用し、空間適応的に特徴写像を更に調整する。
さらに,ネットワークがホール内の新たな物体を幻覚させるのを防ぐため,実世界のシナリオにおける物体除去タスクのニーズを満たすために,オブジェクト認識型トレーニングスキームを設計する。
論文 参考訳(メタデータ) (2022-03-22T16:13:27Z) - Image-specific Convolutional Kernel Modulation for Single Image
Super-resolution [85.09413241502209]
本稿では,新しい画像特異的畳み込み変調カーネル(IKM)を提案する。
我々は、画像や特徴のグローバルな文脈情報を利用して、畳み込みカーネルを適応的に調整するための注意重みを生成する。
単一画像超解像実験により,提案手法は最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-11-16T11:05:10Z) - Multi-Scale Semantics-Guided Neural Networks for Efficient
Skeleton-Based Human Action Recognition [140.18376685167857]
スケルトンに基づく行動認識には,単純なマルチスケールセマンティクス誘導ニューラルネットワークが提案されている。
MS-SGNは、NTU60、NTU120、SYSUデータセットの最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-11-07T03:50:50Z) - Accurate and Lightweight Image Super-Resolution with Model-Guided Deep
Unfolding Network [63.69237156340457]
我々は、モデル誘導深部展開ネットワーク(MoG-DUN)と呼ばれるSISRに対する説明可能なアプローチを提示し、提唱する。
MoG-DUNは正確(エイリアスを少なくする)、計算効率(モデルパラメータを減らした)、多用途(多重劣化を処理できる)である。
RCAN, SRDNF, SRFBNを含む既存の最先端画像手法に対するMoG-DUN手法の優位性は、いくつかの一般的なデータセットと様々な劣化シナリオに関する広範な実験によって実証されている。
論文 参考訳(メタデータ) (2020-09-14T08:23:37Z) - MDCN: Multi-scale Dense Cross Network for Image Super-Resolution [35.59973281360541]
本稿では,より少ないパラメータと少ない実行時間で優れた性能を実現するマルチスケールDense Cross Network (MDCN)を提案する。
MDCNは多層密閉ブロック(MDCB)、階層的特徴蒸留ブロック(HFDB)、動的再構成ブロック(DRB)からなる。
論文 参考訳(メタデータ) (2020-08-30T03:50:19Z) - X-ModalNet: A Semi-Supervised Deep Cross-Modal Network for
Classification of Remote Sensing Data [69.37597254841052]
我々はX-ModalNetと呼ばれる新しいクロスモーダルディープラーニングフレームワークを提案する。
X-ModalNetは、ネットワークの上部にある高レベルな特徴によって構築されたアップダスタブルグラフ上にラベルを伝搬するため、うまく一般化する。
我々は2つのマルチモーダルリモートセンシングデータセット(HSI-MSIとHSI-SAR)上でX-ModalNetを評価し、いくつかの最先端手法と比較して大幅に改善した。
論文 参考訳(メタデータ) (2020-06-24T15:29:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。