論文の概要: Cross-Modality Multi-Atlas Segmentation Using Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2008.08946v1
- Date: Sat, 15 Aug 2020 02:57:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 21:12:31.277332
- Title: Cross-Modality Multi-Atlas Segmentation Using Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークを用いたクロスモダリティマルチアトラスセグメンテーション
- Authors: Wangbin Ding, Lei Li, Xiahai Zhuang, Liqin Huang
- Abstract要約: 高レベルの構造情報は、クロスモダリティ画像の信頼性の高い類似度測定を提供することができる。
この研究は、画像登録とラベル融合の両方がディープニューラルネットワーク(DNN)によって達成される、クロスモダリティ画像のための新しいMASフレームワークを提案する。
画像登録のための一貫した登録ネットワークを提案する。
ラベル融合では、アトラスとターゲットパッチの類似性を測定するために、数ショットの学習ネットワークを適用する。
- 参考スコア(独自算出の注目度): 20.87045880678701
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Both image registration and label fusion in the multi-atlas segmentation
(MAS) rely on the intensity similarity between target and atlas images.
However, such similarity can be problematic when target and atlas images are
acquired using different imaging protocols. High-level structure information
can provide reliable similarity measurement for cross-modality images when
cooperating with deep neural networks (DNNs). This work presents a new MAS
framework for cross-modality images, where both image registration and label
fusion are achieved by DNNs. For image registration, we propose a consistent
registration network, which can jointly estimate forward and backward dense
displacement fields (DDFs). Additionally, an invertible constraint is employed
in the network to reduce the correspondence ambiguity of the estimated DDFs.
For label fusion, we adapt a few-shot learning network to measure the
similarity of atlas and target patches. Moreover, the network can be seamlessly
integrated into the patch-based label fusion. The proposed framework is
evaluated on the MM-WHS dataset of MICCAI 2017. Results show that the framework
is effective in both cross-modality registration and segmentation.
- Abstract(参考訳): マルチアトラス分割(MAS)における画像登録とラベル融合は、ターゲット画像とアトラス画像の強度類似性に依存する。
しかし、ターゲット画像とアトラス画像が異なる撮像プロトコルで取得される場合、このような類似性は問題となる。
高レベルの構造情報は、ディープニューラルネットワーク(DNN)と協調する際のモダリティ画像の信頼性の高い類似度測定を提供することができる。
本稿では,画像登録とラベル融合の両方がdnnによって達成される,クロスモダリティ画像のための新たなmasフレームワークを提案する。
画像登録には,前方および後方の高密度変位場(ddfs)を共同で推定できる,一貫性のある登録ネットワークを提案する。
さらに、推定DDFの対応あいまいさを低減するために、ネットワークにおいて可逆制約を用いる。
ラベル融合では,atlasとターゲットパッチの類似度を測定するために,数ショット学習ネットワークを適用した。
さらに、ネットワークはパッチベースのラベル融合にシームレスに統合できる。
提案手法はMICCAI 2017のMM-WHSデータセット上で評価される。
その結果, フレームワークは相互モダリティ登録とセグメンテーションの両方に有効であることがわかった。
関連論文リスト
- One registration is worth two segmentations [12.163299991979574]
画像登録の目的は、2つ以上の画像間の空間的対応を確立することである。
そこで我々は,より直感的な対応表現として,対応する関心領域(ROI)ペアの集合を提案する。
提案したSAMRegは複数のROIペアのセグメンテーションとマッチングが可能であることを示す。
論文 参考訳(メタデータ) (2024-05-17T16:14:32Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Matching in the Wild: Learning Anatomical Embeddings for Multi-Modality
Images [28.221419419614183]
放射線療法士は、両方のモダリティからの情報を効果的に活用するために、MR/CT画像の正確な登録を必要とする。
近年の学習に基づく手法は, 剛体/ファインステップにおいて有望な結果を示した。
そこで我々は,クロスモダリティマッチングを可能にするCross-SAMと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-07T11:49:06Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Cross-Modality Multi-Atlas Segmentation Using Deep Neural Networks [20.87045880678701]
マルチアトラスセグメンテーション(MAS)は医用画像セグメンテーションのための有望なフレームワークである。
多くの従来のMAS法では、ターゲット画像と同じモダリティのアトラスを用いていた。
本研究では,あるモダリティから利用可能なアトラスを用いて,対象画像を他のモダリティから分割する,新しいモダリティMASフレームワークを設計する。
論文 参考訳(メタデータ) (2022-02-04T07:10:00Z) - Similarity-Aware Fusion Network for 3D Semantic Segmentation [87.51314162700315]
本研究では,3次元セマンティックセグメンテーションのための2次元画像と3次元点雲を適応的に融合する類似性認識融合ネットワーク(SAFNet)を提案する。
我々は、入力とバックプロジェクションされた(2Dピクセルから)点雲の間の幾何学的および文脈的類似性を初めて学習する、後期融合戦略を採用している。
SAFNetは、様々なデータ完全性にまたがって、既存の最先端の核融合ベースのアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2021-07-04T09:28:18Z) - Instance-Aware Graph Convolutional Network for Multi-Label
Classification [55.131166957803345]
グラフ畳み込みニューラルネットワーク(GCN)は、マルチラベル画像認識タスクを効果的に強化した。
マルチラベル分類のための事例対応グラフ畳み込みニューラルネットワーク(IA-GCN)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-19T12:49:28Z) - Pairwise Relation Learning for Semi-supervised Gland Segmentation [90.45303394358493]
病理組織像における腺分節に対するPRS2モデルを提案する。
このモデルはセグメンテーションネットワーク(S-Net)とペア関係ネットワーク(PR-Net)から構成される。
我々は,GlaSデータセットの最近の5つの手法とCRAGデータセットの最近の3つの手法を比較した。
論文 参考訳(メタデータ) (2020-08-06T15:02:38Z) - MvMM-RegNet: A new image registration framework based on multivariate
mixture model and neural network estimation [14.36896617430302]
生成モデル(MvMM)とニューラルネットワーク推定に基づく新しい画像登録フレームワークを提案する。
外観と解剖情報を一体化した生成モデルを構築し、グループ登録が可能な新規な損失関数を導出する。
マルチモーダル心画像への様々な応用のためのフレームワークの汎用性を強調した。
論文 参考訳(メタデータ) (2020-06-28T11:19:15Z) - CoMIR: Contrastive Multimodal Image Representation for Registration [4.543268895439618]
我々は,CoMIR(Contrastive Multimodal Image Representations)と呼ばれる,共有された高密度画像表現を学習するためのコントラスト符号化を提案する。
CoMIRは、十分に類似した画像構造が欠如しているため、既存の登録方法がしばしば失敗するマルチモーダル画像の登録を可能にする。
論文 参考訳(メタデータ) (2020-06-11T10:51:33Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。