論文の概要: Co-Learning Semantic-aware Unsupervised Segmentation for Pathological
Image Registration
- arxiv url: http://arxiv.org/abs/2310.11040v1
- Date: Tue, 17 Oct 2023 07:13:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 17:12:48.419436
- Title: Co-Learning Semantic-aware Unsupervised Segmentation for Pathological
Image Registration
- Title(参考訳): 病理画像登録のための教師なしセグメンテーションの共学習
- Authors: Yang Liu, Shi Gu
- Abstract要約: 本稿では,病理画像登録のための新しい教師なしアプローチであるGIRNetを提案する。
病理画像の登録は、完全に教師なしの学習フレームワークで達成される。
以上の結果から,本手法は画像診断に難渋した場合でも,病理像の登録と病変の同定を正確に行うことが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 13.551672729289265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The registration of pathological images plays an important role in medical
applications. Despite its significance, most researchers in this field
primarily focus on the registration of normal tissue into normal tissue. The
negative impact of focal tissue, such as the loss of spatial correspondence
information and the abnormal distortion of tissue, are rarely considered. In
this paper, we propose GIRNet, a novel unsupervised approach for pathological
image registration by incorporating segmentation and inpainting through the
principles of Generation, Inpainting, and Registration (GIR). The registration,
segmentation, and inpainting modules are trained simultaneously in a
co-learning manner so that the segmentation of the focal area and the
registration of inpainted pairs can improve collaboratively. Overall, the
registration of pathological images is achieved in a completely unsupervised
learning framework. Experimental results on multiple datasets, including
Magnetic Resonance Imaging (MRI) of T1 sequences, demonstrate the efficacy of
our proposed method. Our results show that our method can accurately achieve
the registration of pathological images and identify lesions even in
challenging imaging modalities. Our unsupervised approach offers a promising
solution for the efficient and cost-effective registration of pathological
images. Our code is available at
https://github.com/brain-intelligence-lab/GIRNet.
- Abstract(参考訳): 病理画像の登録は医学的応用において重要な役割を果たす。
その重要性にもかかわらず、この分野のほとんどの研究者は、主に正常な組織を正常な組織に登録することに焦点を当てている。
空間対応情報の喪失や組織の異常な歪みなど、焦点組織の負の影響はめったに考慮されない。
そこで本稿では,gir(genation, inpainting, and registration)の原則を通し,セグメンテーションとインペインティングを組み込んだ新しい病理画像登録手法であるgirenetを提案する。
集中領域のセグメンテーションとインペイントされたペアの登録を協調的に改善できるように、登録、セグメンテーション、およびインペイントモジュールを協調的に同時に訓練する。
全体として、病理画像の登録は完全に教師なしの学習フレームワークで行われる。
T1配列の磁気共鳴画像(MRI)を含む複数のデータセットの実験結果から,提案手法の有効性が示された。
以上より,病理像の登録を精度良く達成でき,画像診断の難易度においても病変を同定できることを示した。
非教師なしのアプローチは,病理画像の効率的かつ費用効率の良い登録のための有望なソリューションを提供する。
私たちのコードはhttps://github.com/brain-intelligence-lab/GIRNetで利用可能です。
関連論文リスト
- Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Joint segmentation and discontinuity-preserving deformable registration:
Application to cardiac cine-MR images [74.99415008543276]
多くの深層学習に基づく登録法は、変形場は画像領域の至る所で滑らかで連続的であると仮定する。
本研究では,この課題に対処するために,不連続かつ局所的に滑らかな変形場を確保するための新しい不連続保存画像登録手法を提案する。
入力画像の構造的相関を学習するために,ネットワークのセグメンテーション成分にコアテンションブロックを提案する。
大規模心磁気共鳴画像系列を用いた物体内時間画像登録の課題について検討した。
論文 参考訳(メタデータ) (2022-11-24T23:45:01Z) - Unsupervised Deformable Image Registration with Absent Correspondences
in Pre-operative and Post-Recurrence Brain Tumor MRI Scans [11.4219428942199]
本研究では,非対応な領域と双方向の変形場を共同で推定する深層学習に基づく変形可能な登録手法を提案する。
BraTS-Reg チャレンジによる3次元臨床データの結果から,画像アライメントの改善が実証された。
論文 参考訳(メタデータ) (2022-06-08T13:53:03Z) - A Deep Discontinuity-Preserving Image Registration Network [73.03885837923599]
ほとんどの深層学習に基づく登録法は、所望の変形場が全世界的に滑らかで連続的であると仮定する。
本稿では、より優れた登録性能とリアルな変形場を得るために、弱い教師付き深部不連続保存画像登録ネットワーク(DDIR)を提案する。
本研究では, 心臓磁気共鳴(MR)画像の登録実験において, 登録精度を大幅に向上し, より現実的な変形を予測できることを実証した。
論文 参考訳(メタデータ) (2021-07-09T13:35:59Z) - CAR-Net: Unsupervised Co-Attention Guided Registration Network for Joint
Registration and Structure Learning [73.03885837923599]
我々は,新しい深層学習ネットワークCAR-Net(Co-Attention Guided Registration Network)を提案する。
CAR-Netはコアテンションブロックを用いて入力の新しい表現を学習し、固定画像と移動画像の登録を駆動する。
イギリスバイオバンクの心臓磁気共鳴画像データを用いた実験により、CAR-Netは最先端の教師なし登録法よりも高い登録精度とスムーズな変形場が得られることが示された。
論文 参考訳(メタデータ) (2021-06-11T23:25:49Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Contrastive Registration for Unsupervised Medical Image Segmentation [1.5125686694430571]
非教師型医用画像分割のための新しいコントラスト型登録アーキテクチャを提案する。
まず、教師なしの医用画像セグメントの登録により、画像から画像への変換パターンをキャプチャするアーキテクチャを提案する。
第2に,特徴レベルのネットワークの識別能力を高めるために,コントラスト学習機構を登録アーキテクチャに組み込む。
論文 参考訳(メタデータ) (2020-11-17T19:29:08Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z) - Learning Deformable Registration of Medical Images with Anatomical
Constraints [4.397224870979238]
医用画像解析の分野では、変形可能な画像登録が根本的な問題である。
我々は,画像解剖学のグローバルな非線形表現をセグメンテーションマスクを用いて学習し,それらを用いて登録プロセスの制約を行う。
実験により,提案した解剖学的制約付き登録モデルにより,最先端の手法よりも現実的で正確な結果が得られることが示された。
論文 参考訳(メタデータ) (2020-01-20T17:44:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。