論文の概要: RetinaRegNet: A Versatile Approach for Retinal Image Registration
- arxiv url: http://arxiv.org/abs/2404.16017v1
- Date: Wed, 24 Apr 2024 17:50:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 18:31:49.091977
- Title: RetinaRegNet: A Versatile Approach for Retinal Image Registration
- Title(参考訳): RetinaRegNet:網膜画像登録のためのVersatileアプローチ
- Authors: Vishal Balaji Sivaraman, Muhammad Imran, Qingyue Wei, Preethika Muralidharan, Michelle R. Tamplin, Isabella M . Grumbach, Randy H. Kardon, Jui-Kai Wang, Yuyin Zhou, Wei Shao,
- Abstract要約: RetinaRegNetは、様々な網膜画像登録タスクで最先端のパフォーマンスを達成する。
このモデルの有効性は3つの網膜画像データセットで実証された。
- 参考スコア(独自算出の注目度): 10.430563602981705
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce the RetinaRegNet model, which can achieve state-of-the-art performance across various retinal image registration tasks. RetinaRegNet does not require training on any retinal images. It begins by establishing point correspondences between two retinal images using image features derived from diffusion models. This process involves the selection of feature points from the moving image using the SIFT algorithm alongside random point sampling. For each selected feature point, a 2D correlation map is computed by assessing the similarity between the feature vector at that point and the feature vectors of all pixels in the fixed image. The pixel with the highest similarity score in the correlation map corresponds to the feature point in the moving image. To remove outliers in the estimated point correspondences, we first applied an inverse consistency constraint, followed by a transformation-based outlier detector. This method proved to outperform the widely used random sample consensus (RANSAC) outlier detector by a significant margin. To handle large deformations, we utilized a two-stage image registration framework. A homography transformation was used in the first stage and a more accurate third-order polynomial transformation was used in the second stage. The model's effectiveness was demonstrated across three retinal image datasets: color fundus images, fluorescein angiography images, and laser speckle flowgraphy images. RetinaRegNet outperformed current state-of-the-art methods in all three datasets. It was especially effective for registering image pairs with large displacement and scaling deformations. This innovation holds promise for various applications in retinal image analysis. Our code is publicly available at https://github.com/mirthAI/RetinaRegNet.
- Abstract(参考訳): 本稿では,網膜画像登録タスクにおける最先端性能を実現するRetinaRegNetモデルを提案する。
RetinaRegNetは網膜画像のトレーニングを必要としない。
拡散モデルから派生した画像特徴を用いて、2つの網膜画像間の点対応を確立することから始まる。
このプロセスでは、SIFTアルゴリズムとランダム点サンプリングを併用して、移動画像から特徴点を選択する。
各選択された特徴点について、その点における特徴ベクトルと固定画像中の全ての画素の特徴ベクトルとの類似性を評価することにより、2D相関マップを算出する。
相関マップにおける最も類似度の高い画素は、移動画像の特徴点に対応する。
推定点対応における外れ値を取り除くために、まず逆整合制約を適用し、次に変換に基づく外れ値検出器を適用した。
この手法は、広く使われているランダムサンプルコンセンサス(RANSAC)のアウリア検出器をかなりの差で上回った。
大きな変形に対処するために、我々は2段階の画像登録フレームワークを利用した。
第1段階ではホモグラフィ変換を用い,第2段階ではより正確な3階多項式変換を用いた。
このモデルの有効性は、カラーファンドス画像、フルオレセイン血管造影画像、レーザースペックルフロー画像の3つの網膜画像データセットで実証された。
RetinaRegNetは、現在の最先端メソッドを3つのデータセットすべてで上回った。
特に画像対を大きな変位とスケール変形で登録するのに有効であった。
この革新は網膜画像解析における様々な応用を約束する。
私たちのコードはhttps://github.com/mirthAI/RetinaRegNet.comで公開されています。
関連論文リスト
- Progressive Retinal Image Registration via Global and Local Deformable Transformations [49.032894312826244]
我々はHybridRetinaと呼ばれるハイブリッド登録フレームワークを提案する。
キーポイント検出器とGAMorphと呼ばれる変形ネットワークを用いて、大域的な変換と局所的な変形可能な変換を推定する。
FIREとFLoRI21という2つの広く使われているデータセットの実験により、提案したHybridRetinaは最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-09-02T08:43:50Z) - Cross-domain and Cross-dimension Learning for Image-to-Graph
Transformers [50.576354045312115]
直接画像からグラフへの変換は、単一のモデルにおけるオブジェクトの検出と関係予測を解決するための課題である。
画像-グラフ変換器のクロスドメインおよびクロス次元変換学習を可能にする一連の手法を提案する。
そこで我々は,2次元の衛星画像上でモデルを事前学習し,それを2次元および3次元の異なるターゲット領域に適用する。
論文 参考訳(メタデータ) (2024-03-11T10:48:56Z) - 2D3D-MATR: 2D-3D Matching Transformer for Detection-free Registration
between Images and Point Clouds [38.425876064671435]
本稿では2D3D-MATRを提案する。
提案手法では,入力画像のダウンサンプリングされたパッチと点雲との間の粗い対応をまず計算する。
パッチマッチングにおけるスケールのあいまいさを解決するため,各画像パッチに対してマルチスケールピラミッドを構築し,最適なマッチング画像パッチを適切な解像度で検出する。
論文 参考訳(メタデータ) (2023-08-10T16:10:54Z) - Estimating Extreme 3D Image Rotation with Transformer Cross-Attention [13.82735766201496]
画像ペアのアクティベーションマップ間の相互アテンションを計算するために,CNN特徴マップとTransformer-Encoderを利用するクロスアテンションベースのアプローチを提案する。
一般的に使用されている画像回転データセットやベンチマークに適用した場合、現代の最先端のスキームよりも優れた性能を示すことが実験的に示されている。
論文 参考訳(メタデータ) (2023-03-05T09:07:26Z) - Differentiable Uncalibrated Imaging [25.67247660827913]
本稿では,センサ位置や投影角などの測定座標の不確実性に対処する,識別可能なイメージングフレームワークを提案する。
入力座標に対して自然に微分可能な暗黙のニューラルネットワーク、別名ニューラルフィールドを適用する。
測定表現を協調的に適合させ、不確実な測定座標を最適化し、一貫したキャリブレーションを保証する画像再構成を行うため、微分性は鍵となる。
論文 参考訳(メタデータ) (2022-11-18T22:48:09Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Unsupervised Domain Adaptation with Contrastive Learning for OCT
Segmentation [49.59567529191423]
本稿では,新しい未ラベル領域からのボリューム画像のセグメンテーションのための,新しい半教師付き学習フレームワークを提案する。
教師付き学習とコントラスト学習を併用し、3次元の近傍スライス間の類似性を利用したコントラストペア方式を導入する。
論文 参考訳(メタデータ) (2022-03-07T19:02:26Z) - A Hierarchical Transformation-Discriminating Generative Model for Few
Shot Anomaly Detection [93.38607559281601]
各トレーニングイメージのマルチスケールパッチ分布をキャプチャする階層的生成モデルを開発した。
この異常スコアは、スケール及び画像領域にわたる正しい変換のパッチベースの投票を集約して得られる。
論文 参考訳(メタデータ) (2021-04-29T17:49:48Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - FlowReg: Fast Deformable Unsupervised Medical Image Registration using
Optical Flow [0.09167082845109438]
FlowRegは、ニューロイメージングアプリケーションのための教師なしイメージ登録のためのフレームワークである。
flowregは解剖学と病理の形状と構造を維持しながら、強度と空間的類似性を得ることができる。
論文 参考訳(メタデータ) (2021-01-24T03:51:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。