論文の概要: RetinaRegNet: A Versatile Approach for Retinal Image Registration
- arxiv url: http://arxiv.org/abs/2404.16017v1
- Date: Wed, 24 Apr 2024 17:50:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 18:31:49.091977
- Title: RetinaRegNet: A Versatile Approach for Retinal Image Registration
- Title(参考訳): RetinaRegNet:網膜画像登録のためのVersatileアプローチ
- Authors: Vishal Balaji Sivaraman, Muhammad Imran, Qingyue Wei, Preethika Muralidharan, Michelle R. Tamplin, Isabella M . Grumbach, Randy H. Kardon, Jui-Kai Wang, Yuyin Zhou, Wei Shao,
- Abstract要約: RetinaRegNetは、様々な網膜画像登録タスクで最先端のパフォーマンスを達成する。
このモデルの有効性は3つの網膜画像データセットで実証された。
- 参考スコア(独自算出の注目度): 10.430563602981705
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce the RetinaRegNet model, which can achieve state-of-the-art performance across various retinal image registration tasks. RetinaRegNet does not require training on any retinal images. It begins by establishing point correspondences between two retinal images using image features derived from diffusion models. This process involves the selection of feature points from the moving image using the SIFT algorithm alongside random point sampling. For each selected feature point, a 2D correlation map is computed by assessing the similarity between the feature vector at that point and the feature vectors of all pixels in the fixed image. The pixel with the highest similarity score in the correlation map corresponds to the feature point in the moving image. To remove outliers in the estimated point correspondences, we first applied an inverse consistency constraint, followed by a transformation-based outlier detector. This method proved to outperform the widely used random sample consensus (RANSAC) outlier detector by a significant margin. To handle large deformations, we utilized a two-stage image registration framework. A homography transformation was used in the first stage and a more accurate third-order polynomial transformation was used in the second stage. The model's effectiveness was demonstrated across three retinal image datasets: color fundus images, fluorescein angiography images, and laser speckle flowgraphy images. RetinaRegNet outperformed current state-of-the-art methods in all three datasets. It was especially effective for registering image pairs with large displacement and scaling deformations. This innovation holds promise for various applications in retinal image analysis. Our code is publicly available at https://github.com/mirthAI/RetinaRegNet.
- Abstract(参考訳): 本稿では,網膜画像登録タスクにおける最先端性能を実現するRetinaRegNetモデルを提案する。
RetinaRegNetは網膜画像のトレーニングを必要としない。
拡散モデルから派生した画像特徴を用いて、2つの網膜画像間の点対応を確立することから始まる。
このプロセスでは、SIFTアルゴリズムとランダム点サンプリングを併用して、移動画像から特徴点を選択する。
各選択された特徴点について、その点における特徴ベクトルと固定画像中の全ての画素の特徴ベクトルとの類似性を評価することにより、2D相関マップを算出する。
相関マップにおける最も類似度の高い画素は、移動画像の特徴点に対応する。
推定点対応における外れ値を取り除くために、まず逆整合制約を適用し、次に変換に基づく外れ値検出器を適用した。
この手法は、広く使われているランダムサンプルコンセンサス(RANSAC)のアウリア検出器をかなりの差で上回った。
大きな変形に対処するために、我々は2段階の画像登録フレームワークを利用した。
第1段階ではホモグラフィ変換を用い,第2段階ではより正確な3階多項式変換を用いた。
このモデルの有効性は、カラーファンドス画像、フルオレセイン血管造影画像、レーザースペックルフロー画像の3つの網膜画像データセットで実証された。
RetinaRegNetは、現在の最先端メソッドを3つのデータセットすべてで上回った。
特に画像対を大きな変位とスケール変形で登録するのに有効であった。
この革新は網膜画像解析における様々な応用を約束する。
私たちのコードはhttps://github.com/mirthAI/RetinaRegNet.comで公開されています。
関連論文リスト
- Cross-domain and Cross-dimension Learning for Image-to-Graph
Transformers [50.576354045312115]
直接画像からグラフへの変換は、単一のモデルにおけるオブジェクトの検出と関係予測を解決するための課題である。
画像-グラフ変換器のクロスドメインおよびクロス次元変換学習を可能にする一連の手法を提案する。
そこで我々は,2次元の衛星画像上でモデルを事前学習し,それを2次元および3次元の異なるターゲット領域に適用する。
論文 参考訳(メタデータ) (2024-03-11T10:48:56Z) - Unsupervised convolutional neural network fusion approach for change
detection in remote sensing images [1.892026266421264]
我々は、変化検出のための全く教師なし浅層畳み込みニューラルネットワーク(USCNN)融合アプローチを導入する。
我々のモデルには3つの特徴がある: トレーニングプロセス全体は教師なしで行われ、ネットワークアーキテクチャは浅く、目的関数はスパースである。
4つの実リモートセンシングデータセットの実験結果から,提案手法の有効性と有効性が確認された。
論文 参考訳(メタデータ) (2023-11-07T03:10:17Z) - Estimating Extreme 3D Image Rotation with Transformer Cross-Attention [13.82735766201496]
画像ペアのアクティベーションマップ間の相互アテンションを計算するために,CNN特徴マップとTransformer-Encoderを利用するクロスアテンションベースのアプローチを提案する。
一般的に使用されている画像回転データセットやベンチマークに適用した場合、現代の最先端のスキームよりも優れた性能を示すことが実験的に示されている。
論文 参考訳(メタデータ) (2023-03-05T09:07:26Z) - Adaptive Local Implicit Image Function for Arbitrary-scale
Super-resolution [61.95533972380704]
局所暗黙画像関数(LIIF)は、対応する座標を入力として、画素値が拡張される連続関数として画像を表す。
LIIFは任意のスケールの超解像タスクに適用でき、その結果、様々なアップスケーリング要因に対して単一の効率的かつ効率的なモデルが得られる。
この問題を軽減するために,新しい適応型局所像関数(A-LIIF)を提案する。
論文 参考訳(メタデータ) (2022-08-07T11:23:23Z) - Unsupervised Industrial Anomaly Detection via Pattern Generative and
Contrastive Networks [8.476686092919596]
本稿では,視覚変換器を用いた教師なし異常検出ネットワークを提案する。
階層的なタスク学習と人間の経験を利用して、その解釈可能性を高めます。
従来の最先端手法を超越した99.8%のAUCを実現した。
論文 参考訳(メタデータ) (2022-07-20T10:09:53Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Unsupervised Domain Adaptation with Contrastive Learning for OCT
Segmentation [49.59567529191423]
本稿では,新しい未ラベル領域からのボリューム画像のセグメンテーションのための,新しい半教師付き学習フレームワークを提案する。
教師付き学習とコントラスト学習を併用し、3次元の近傍スライス間の類似性を利用したコントラストペア方式を導入する。
論文 参考訳(メタデータ) (2022-03-07T19:02:26Z) - Learning Hierarchical Graph Representation for Image Manipulation
Detection [50.04902159383709]
画像操作検出の目的は、画像内の操作された領域を特定し、特定することである。
最近のアプローチでは、画像に残っている改ざんするアーティファクトをキャプチャするために、洗練された畳み込みニューラルネットワーク(CNN)が採用されている。
本稿では2つの並列分岐からなる階層型グラフ畳み込みネットワーク(HGCN-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-15T01:54:25Z) - SeqNetVLAD vs PointNetVLAD: Image Sequence vs 3D Point Clouds for
Day-Night Place Recognition [31.714928102950594]
位置認識は移動ロボットのローカライゼーションとナビゲーションにとって重要な機能である。
逐次表現に基づく最近のVPR手法は有望な結果を示した。
我々は,3次元点クラウド法と画像シーケンス法を比較した。
論文 参考訳(メタデータ) (2021-06-22T02:05:32Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。