論文の概要: Progressive Retinal Image Registration via Global and Local Deformable Transformations
- arxiv url: http://arxiv.org/abs/2409.01068v2
- Date: Wed, 16 Oct 2024 07:49:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 03:35:26.082867
- Title: Progressive Retinal Image Registration via Global and Local Deformable Transformations
- Title(参考訳): グローバル・ローカル・デフォルマブル・トランスフォーメーションによるプログレッシブ網膜画像登録
- Authors: Yepeng Liu, Baosheng Yu, Tian Chen, Yuliang Gu, Bo Du, Yongchao Xu, Jun Cheng,
- Abstract要約: 我々はHybridRetinaと呼ばれるハイブリッド登録フレームワークを提案する。
キーポイント検出器とGAMorphと呼ばれる変形ネットワークを用いて、大域的な変換と局所的な変形可能な変換を推定する。
FIREとFLoRI21という2つの広く使われているデータセットの実験により、提案したHybridRetinaは最先端の手法よりも大幅に優れていることが示された。
- 参考スコア(独自算出の注目度): 49.032894312826244
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retinal image registration plays an important role in the ophthalmological diagnosis process. Since there exist variances in viewing angles and anatomical structures across different retinal images, keypoint-based approaches become the mainstream methods for retinal image registration thanks to their robustness and low latency. These methods typically assume the retinal surfaces are planar, and adopt feature matching to obtain the homography matrix that represents the global transformation between images. Yet, such a planar hypothesis inevitably introduces registration errors since retinal surface is approximately curved. This limitation is more prominent when registering image pairs with significant differences in viewing angles. To address this problem, we propose a hybrid registration framework called HybridRetina, which progressively registers retinal images with global and local deformable transformations. For that, we use a keypoint detector and a deformation network called GAMorph to estimate the global transformation and local deformable transformation, respectively. Specifically, we integrate multi-level pixel relation knowledge to guide the training of GAMorph. Additionally, we utilize an edge attention module that includes the geometric priors of the images, ensuring the deformation field focuses more on the vascular regions of clinical interest. Experiments on two widely-used datasets, FIRE and FLoRI21, show that our proposed HybridRetina significantly outperforms some state-of-the-art methods. The code is available at https://github.com/lyp-deeplearning/awesome-retinal-registration.
- Abstract(参考訳): 網膜画像登録は眼科診断過程において重要な役割を担っている。
異なる網膜画像間の視角や解剖学的構造にばらつきがあるため、キーポイントベースのアプローチは、その堅牢性と低レイテンシにより、網膜画像登録の主流となる。
これらの手法は通常、網膜表面が平面であると仮定し、画像間の大域的な変換を表すホモグラフィ行列を得るために特徴マッチングを採用する。
しかし、このような平面仮説は、網膜表面がほぼ湾曲しているため、必然的に登録誤差を生じさせる。
この制限は、視角に有意な差がある画像対を登録する場合に顕著である。
この問題に対処するため,HybridRetinaと呼ばれるハイブリッドレジストレーションフレームワークを提案する。
そこで我々は,GAMorphと呼ばれるキーポイント検出器と変形ネットワークを用いて,大域的な変換と局所的な変形可能な変換を推定する。
具体的には,GAMorphのトレーニングを指導するために,多段階の画素関係知識を統合する。
さらに,画像の幾何学的先行を含むエッジアテンションモジュールを利用することで,画像の変形領域が臨床的興味のある血管領域により集中することを保証する。
FIREとFLoRI21という2つの広く使われているデータセットの実験により、提案したHybridRetinaは最先端の手法よりも大幅に優れていることが示された。
コードはhttps://github.com/lyp-deeplearning/awesome-retinal-registrationで公開されている。
関連論文リスト
- RetinaRegNet: A Zero-Shot Approach for Retinal Image Registration [10.430563602981705]
RetinaRegNetは、最小のオーバーラップ、大きな変形、さまざまな画質で網膜画像を登録するために設計されたゼロショット登録モデルである。
大規模な変形を処理するための2段階の登録フレームワークを実装した。
私たちのモデルは、すべてのデータセットで常に最先端のメソッドより優れています。
論文 参考訳(メタデータ) (2024-04-24T17:50:37Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - VesselMorph: Domain-Generalized Retinal Vessel Segmentation via
Shape-Aware Representation [12.194439938007672]
ドメインシフトは医療画像の本質的な特性であり、学習ベースのアルゴリズムを大規模に展開する上で大きな障害となっている。
形状認識表現を合成することにより2次元網膜血管セグメンテーションタスクを一般化するVesselMorphという手法を提案する。
VesselMorphは、異なるドメインシフトシナリオの競合するメソッドと比較して、優れた一般化性能を実現する。
論文 参考訳(メタデータ) (2023-07-01T06:02:22Z) - Learning Homeomorphic Image Registration via Conformal-Invariant
Hyperelastic Regularisation [9.53064372566798]
共形不変性に基づく変形可能な画像登録のための新しいフレームワークを提案する。
我々の正規化器は、変形場が滑らかで、可逆で、配向保存されるように強制する。
我々は,数値的および視覚的な実験を通じて,我々のフレームワークが現在の画像登録技術より優れていることを実証した。
論文 参考訳(メタデータ) (2023-03-14T17:47:18Z) - Joint segmentation and discontinuity-preserving deformable registration:
Application to cardiac cine-MR images [74.99415008543276]
多くの深層学習に基づく登録法は、変形場は画像領域の至る所で滑らかで連続的であると仮定する。
本研究では,この課題に対処するために,不連続かつ局所的に滑らかな変形場を確保するための新しい不連続保存画像登録手法を提案する。
入力画像の構造的相関を学習するために,ネットワークのセグメンテーション成分にコアテンションブロックを提案する。
大規模心磁気共鳴画像系列を用いた物体内時間画像登録の課題について検討した。
論文 参考訳(メタデータ) (2022-11-24T23:45:01Z) - Segmentation-guided Domain Adaptation and Data Harmonization of
Multi-device Retinal Optical Coherence Tomography using Cycle-Consistent
Generative Adversarial Networks [2.968191199408213]
本稿では,複数のデバイスからの画像を単一画像領域に適応させるセグメント化誘導型領域適応手法を提案する。
来るべき新しいデータセットに対する手動ラベリングの時間消費と、既存のネットワークの再トレーニングを回避する。
論文 参考訳(メタデータ) (2022-08-31T05:06:00Z) - SD-LayerNet: Semi-supervised retinal layer segmentation in OCT using
disentangled representation with anatomical priors [4.2663199451998475]
網膜層セグメンテーションタスクに半教師付きパラダイムを導入する。
特に、表面位置回帰をピクセル単位で構造化されたセグメンテーションに変換するために、新しい完全微分可能なアプローチが用いられる。
並行して,ラベル付きデータの限られた量が利用できる場合に,ネットワークトレーニングを改善するための解剖学的事前セットを提案する。
論文 参考訳(メタデータ) (2022-07-01T14:30:59Z) - Dual-Flow Transformation Network for Deformable Image Registration with
Region Consistency Constraint [95.30864269428808]
現在のディープラーニング(DL)ベースの画像登録アプローチは、畳み込みニューラルネットワークを利用して、ある画像から別の画像への空間変換を学習する。
一対のイメージ内のROIの類似性を最大化する領域整合性制約を持つ新しいデュアルフロー変換ネットワークを提案する。
4つの公開3次元MRIデータセットを用いた実験により,提案手法は精度と一般化において最高の登録性能が得られることを示した。
論文 参考訳(メタデータ) (2021-12-04T05:30:44Z) - A Deep Discontinuity-Preserving Image Registration Network [73.03885837923599]
ほとんどの深層学習に基づく登録法は、所望の変形場が全世界的に滑らかで連続的であると仮定する。
本稿では、より優れた登録性能とリアルな変形場を得るために、弱い教師付き深部不連続保存画像登録ネットワーク(DDIR)を提案する。
本研究では, 心臓磁気共鳴(MR)画像の登録実験において, 登録精度を大幅に向上し, より現実的な変形を予測できることを実証した。
論文 参考訳(メタデータ) (2021-07-09T13:35:59Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。