論文の概要: Morphological Operation Residual Blocks: Enhancing 3D Morphological
Feature Representation in Convolutional Neural Networks for Semantic
Segmentation of Medical Images
- arxiv url: http://arxiv.org/abs/2103.04026v1
- Date: Sat, 6 Mar 2021 04:41:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:49:14.326795
- Title: Morphological Operation Residual Blocks: Enhancing 3D Morphological
Feature Representation in Convolutional Neural Networks for Semantic
Segmentation of Medical Images
- Title(参考訳): 形態的残差ブロック:医用画像のセマンティックセグメンテーションのための畳み込みニューラルネットワークにおける3次元形態的特徴表現の強化
- Authors: Chentian Li, Chi Ma, William W. Lu
- Abstract要約: 本研究では,畳み込みニューラルネットワークにおける形態素演算を無限に強い先行として組み込んだ新しいネットワークブロックアーキテクチャを提案する。
提案する形態的操作ブロックを用いた3次元ディープラーニングモデルを構築し, 異なる医用画像分割タスクで比較した。
- 参考スコア(独自算出の注目度): 0.8594140167290099
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The shapes and morphology of the organs and tissues are important prior
knowledge in medical imaging recognition and segmentation. The morphological
operation is a well-known method for morphological feature extraction. As the
morphological operation is performed well in hand-crafted image segmentation
techniques, it is also promising to design an approach to approximate
morphological operation in the convolutional networks. However, using the
traditional convolutional neural network as a black-box is usually hard to
specify the morphological operation action. Here, we introduced a 3D
morphological operation residual block to extract morphological features in
end-to-end deep learning models for semantic segmentation. This study proposed
a novel network block architecture that embedded the morphological operation as
an infinitely strong prior in the convolutional neural network. Several 3D deep
learning models with the proposed morphological operation block were built and
compared in different medical imaging segmentation tasks. Experimental results
showed the proposed network achieved a relatively higher performance in the
segmentation tasks comparing with the conventional approach. In conclusion, the
novel network block could be easily embedded in traditional networks and
efficiently reinforce the deep learning models for medical imaging
segmentation.
- Abstract(参考訳): 臓器および組織の形状および形態は、医療画像認識およびセグメンテーションにおいて重要な事前知識である。
形態学的操作は、形態学的特徴抽出のよく知られた方法である。
また,手作り画像分割技術では形態的操作が良好に行われているため,畳み込みネットワークにおける近似形態的操作へのアプローチを設計することも期待できる。
しかし、従来の畳み込みニューラルネットワークをブラックボックスとして使用する場合、形態的操作動作を特定するのは難しい。
本稿では,意味セグメンテーションのためのエンド・ツー・エンドディープラーニングモデルにおける形態的特徴を抽出するために,3次元形態的操作残差ブロックを導入した。
本研究では,畳み込みニューラルネットワークにおける形態素演算を無限に強い先行として組み込んだ新しいネットワークブロックアーキテクチャを提案する。
提案する形態的操作ブロックを用いた3次元ディープラーニングモデルを構築し, 異なる医用画像分割タスクで比較した。
実験の結果,提案ネットワークは従来の手法と比較して,セグメント化タスクにおいて比較的高い性能を示した。
結論として,新しいネットワークブロックは従来のネットワークに容易に組み込まれ,医用画像セグメンテーションのための深層学習モデルを効率的に強化することができる。
関連論文リスト
- Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - ShapeMamba-EM: Fine-Tuning Foundation Model with Local Shape Descriptors and Mamba Blocks for 3D EM Image Segmentation [49.42525661521625]
本稿では3次元EMセグメンテーションのための特殊微調整法であるShapeMamba-EMを提案する。
5つのセグメンテーションタスクと10のデータセットをカバーする、幅広いEMイメージでテストされている。
論文 参考訳(メタデータ) (2024-08-26T08:59:22Z) - Learning Multimodal Volumetric Features for Large-Scale Neuron Tracing [72.45257414889478]
オーバーセグメントニューロン間の接続を予測し,人間の作業量を削減することを目的としている。
最初はFlyTracingという名前のデータセットを構築しました。
本稿では,高密度なボリュームEM画像の埋め込みを生成するための,新しい接続性を考慮したコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-05T19:45:12Z) - Implicit Anatomical Rendering for Medical Image Segmentation with
Stochastic Experts [11.007092387379078]
医用画像セグメンテーションの学習を支援するために,解剖学的レベルで設計された汎用的な暗黙的ニューラルネットワークレンダリングフレームワークであるMORSEを提案する。
医用画像のセグメンテーションをエンドツーエンドのレンダリング問題として定式化する。
実験の結果,MORSEは異なる医療セグメントのバックボーンでうまく機能することが示された。
論文 参考訳(メタデータ) (2023-04-06T16:44:03Z) - Medical Image Analysis using Deep Relational Learning [1.8465474345655504]
医用画像セグメンテーションを行うために,特徴間の暗黙的関係情報を効果的にモデル化するコンテキスト対応完全畳み込みネットワークを提案する。
そこで我々は,隣接するフレーム間の空間的関係を学習し,正確な医用画像モザイクを実現するために,新しい階層的ホモグラフィー推定ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T16:10:12Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Automatic Semantic Segmentation of the Lumbar Spine. Clinical
Applicability in a Multi-parametric and Multi-centre MRI study [0.0]
この文書は、最も正確なセグメンテーションを得たニューラルネットワークの設計結果について記述し、分析する。
提案するいくつかの設計は、ベースラインとして使用される標準のU-Netよりも優れており、特に複数のニューラルネットワークの出力が異なる戦略に従って結合されるアンサンブルで使用される場合である。
論文 参考訳(メタデータ) (2021-11-16T17:33:05Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Reducing Textural Bias Improves Robustness of Deep Segmentation CNNs [8.736194193307451]
自然画像の最近の知見は、深いニューラルモデルは、画像分類タスクを実行する際に、テクスチャバイアスを示す可能性があることを示唆している。
本研究の目的は, 深いセグメンテーションモデルの堅牢性と伝達性を高めるために, テクスチャバイアス現象に対処する方法を検討することである。
論文 参考訳(メタデータ) (2020-11-30T18:29:53Z) - Interactive Deep Refinement Network for Medical Image Segmentation [13.698408475104452]
従来のセマンティックセグメンテーションネットワークを改善するための対話型ディープリファインメントフレームワークを提案する。
提案するフレームワークでは,従来のセグメンテーションネットワークに改良ネットワークを追加し,結果を改善した。
公開データセットによる実験結果から,提案手法が他の最先端手法よりも高い精度を達成できることが判明した。
論文 参考訳(メタデータ) (2020-06-27T08:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。