論文の概要: Cross-Modality Multi-Atlas Segmentation Using Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2202.02000v1
- Date: Fri, 4 Feb 2022 07:10:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 00:34:54.858590
- Title: Cross-Modality Multi-Atlas Segmentation Using Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークを用いたクロスモダリティマルチアトラスセグメンテーション
- Authors: Wangbin Ding, Lei Li, Xiahai Zhuang, Liqin Huang
- Abstract要約: マルチアトラスセグメンテーション(MAS)は医用画像セグメンテーションのための有望なフレームワークである。
多くの従来のMAS法では、ターゲット画像と同じモダリティのアトラスを用いていた。
本研究では,あるモダリティから利用可能なアトラスを用いて,対象画像を他のモダリティから分割する,新しいモダリティMASフレームワークを設計する。
- 参考スコア(独自算出の注目度): 20.87045880678701
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-atlas segmentation (MAS) is a promising framework for medical image
segmentation. Generally, MAS methods register multiple atlases, i.e., medical
images with corresponding labels, to a target image; and the transformed atlas
labels can be combined to generate target segmentation via label fusion
schemes. Many conventional MAS methods employed the atlases from the same
modality as the target image. However, the number of atlases with the same
modality may be limited or even missing in many clinical applications. Besides,
conventional MAS methods suffer from the computational burden of registration
or label fusion procedures. In this work, we design a novel cross-modality MAS
framework, which uses available atlases from a certain modality to segment a
target image from another modality. To boost the computational efficiency of
the framework, both the image registration and label fusion are achieved by
well-designed deep neural networks. For the atlas-to-target image registration,
we propose a bi-directional registration network (BiRegNet), which can
efficiently align images from different modalities. For the label fusion, we
design a similarity estimation network (SimNet), which estimates the fusion
weight of each atlas by measuring its similarity to the target image. SimNet
can learn multi-scale information for similarity estimation to improve the
performance of label fusion. The proposed framework was evaluated by the left
ventricle and liver segmentation tasks on the MM-WHS and CHAOS datasets,
respectively. Results have shown that the framework is effective for
cross-modality MAS in both registration and label fusion. The code will be
released publicly on \url{https://github.com/NanYoMy/cmmas} once the manuscript
is accepted.
- Abstract(参考訳): マルチアトラスセグメンテーション(MAS)は医用画像セグメンテーションのための有望なフレームワークである。
一般に、MAS法は複数のアトラス、すなわち対応するラベルを持つ医療画像を対象画像に登録し、変換されたアトラスラベルを組み合わせてラベル融合スキームを介してターゲットセグメンテーションを生成することができる。
多くの従来のMAS法では、ターゲット画像と同じモダリティのアトラスを用いていた。
しかし、同じモダリティを持つアトラスの数は、多くの臨床応用において制限または欠落する可能性がある。
さらに、従来のmas法は登録やラベルの融合手続きの計算の負担に苦しんでいる。
本研究では,あるモダリティから利用可能なアトラスを用いて,対象画像を他のモダリティから分割する,新しいモダリティMASフレームワークを設計する。
このフレームワークの計算効率を高めるために、画像登録とラベル融合はよく設計されたディープニューラルネットワークによって達成される。
atlas-to-target画像登録のために、異なるモダリティの画像を効率的に整列できる双方向登録ネットワーク(biregnet)を提案する。
ラベル融合のための類似度推定ネットワーク(simnet)の設計を行い,対象画像との類似度を測定し,各アトラスの融合重みを推定する。
SimNetは、類似度推定のためのマルチスケール情報を学び、ラベル融合の性能を向上させる。
MM-WHSデータセットとCHAOSデータセットの左室および肝セグメンテーションタスクで評価した。
その結果,本フレームワークは登録とラベル融合の両面において相互モダリティMASに有効であることがわかった。
原稿が受け入れられたら、コードは \url{https://github.com/NanYoMy/cmmas} で公開される。
関連論文リスト
- Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Heterogeneous Semantic Transfer for Multi-label Recognition with Partial Labels [70.45813147115126]
部分ラベル付きマルチラベル画像認識(MLR-PL)は、アノテーションのコストを大幅に削減し、大規模なMLRを促進する。
それぞれの画像と異なる画像の間に強い意味的相関が存在することがわかった。
これらの相関関係は、未知のラベルを取得するために、既知のラベルが持つ知識を転送するのに役立ちます。
論文 参考訳(メタデータ) (2022-05-23T08:37:38Z) - Graph Attention Transformer Network for Multi-Label Image Classification [50.0297353509294]
複雑なラベル間関係を効果的にマイニングできる多ラベル画像分類のための一般的なフレームワークを提案する。
提案手法は3つのデータセット上で最先端の性能を実現することができる。
論文 参考訳(メタデータ) (2022-03-08T12:39:05Z) - Reference-guided Pseudo-Label Generation for Medical Semantic
Segmentation [25.76014072179711]
本稿では,半教師付きセマンティックセグメンテーションのための管理手法を提案する。
少数のラベル付き画像を参照材料として使用し、未ラベル画像中の画素と参照集合内の最適な画素のセマンティクスを一致させる。
我々は,X線解剖学的セグメンテーションにおける標準完全教師付きモデルと同じ性能を達成するが,ラベル付き画像の95%は少ない。
論文 参考訳(メタデータ) (2021-12-01T12:21:24Z) - Factorisation-based Image Labelling [0.9319432628663639]
本稿では,潜在変数を持つ生成モデルに基づくパッチベースのラベル伝搬手法を提案する。
提案したモデルを,MICCAI 2012 Grand Challenge and Workshop on Multi-Atlas Labelingのデータを用いて,最先端のモデルと比較した。
論文 参考訳(メタデータ) (2021-11-19T17:10:54Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Modeling the Probabilistic Distribution of Unlabeled Data forOne-shot
Medical Image Segmentation [40.41161371507547]
我々は1ショットの脳磁気共鳴画像(MRI)画像分割のためのデータ拡張法を開発した。
提案手法は,MRI画像1枚(atlas)とラベルなし画像数枚のみを利用する。
本手法は最先端のワンショット医療セグメンテーション法より優れている。
論文 参考訳(メタデータ) (2021-02-03T12:28:04Z) - Knowledge-Guided Multi-Label Few-Shot Learning for General Image
Recognition [75.44233392355711]
KGGRフレームワークは、ディープニューラルネットワークと統計ラベル相関の事前知識を利用する。
まず、統計ラベルの共起に基づいて異なるラベルを相関させる構造化知識グラフを構築する。
次に、ラベルセマンティクスを導入し、学習セマンティクス固有の特徴をガイドする。
グラフノードの相互作用を探索するためにグラフ伝搬ネットワークを利用する。
論文 参考訳(メタデータ) (2020-09-20T15:05:29Z) - Instance-Aware Graph Convolutional Network for Multi-Label
Classification [55.131166957803345]
グラフ畳み込みニューラルネットワーク(GCN)は、マルチラベル画像認識タスクを効果的に強化した。
マルチラベル分類のための事例対応グラフ畳み込みニューラルネットワーク(IA-GCN)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-19T12:49:28Z) - Cross-Modality Multi-Atlas Segmentation Using Deep Neural Networks [20.87045880678701]
高レベルの構造情報は、クロスモダリティ画像の信頼性の高い類似度測定を提供することができる。
この研究は、画像登録とラベル融合の両方がディープニューラルネットワーク(DNN)によって達成される、クロスモダリティ画像のための新しいMASフレームワークを提案する。
画像登録のための一貫した登録ネットワークを提案する。
ラベル融合では、アトラスとターゲットパッチの類似性を測定するために、数ショットの学習ネットワークを適用する。
論文 参考訳(メタデータ) (2020-08-15T02:57:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。