論文の概要: Cross-modal Fundus Image Registration under Large FoV Disparity
- arxiv url: http://arxiv.org/abs/2512.12657v1
- Date: Sun, 14 Dec 2025 12:10:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.366666
- Title: Cross-modal Fundus Image Registration under Large FoV Disparity
- Title(参考訳): 大きなFoV差下でのクロスモーダルファウンダス画像登録
- Authors: Hongyang Li, Junyi Tao, Qijie Wei, Ningzhi Yang, Meng Wang, Weihong Yu, Xirong Li,
- Abstract要約: クロスモーダル・ファンドス画像登録(CMFIR)に関するこれまでの研究は、小さなクロスモーダル・フィールド・オブ・ビュー(FoV)の相違を前提としている。
本論文は,FoVの相違が大きい,現在の手法を直接適用できない,より困難なシナリオを対象としている。
非常に単純で効果的な画像登録法であるクロスモーダル・ファンドス・イメージ・レジストレーション(CARe)について,クロップとアライメントを提案する。
- 参考スコア(独自算出の注目度): 18.69938492903591
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous work on cross-modal fundus image registration (CMFIR) assumes small cross-modal Field-of-View (FoV) disparity. By contrast, this paper is targeted at a more challenging scenario with large FoV disparity, to which directly applying current methods fails. We propose Crop and Alignment for cross-modal fundus image Registration(CARe), a very simple yet effective method. Specifically, given an OCTA with smaller FoV as a source image and a wide-field color fundus photograph (wfCFP) as a target image, our Crop operation exploits the physiological structure of the retina to crop from the target image a sub-image with its FoV roughly aligned with that of the source. This operation allows us to re-purpose the previous small-FoV-disparity oriented methods for subsequent image registration. Moreover, we improve spatial transformation by a double-fitting based Alignment module that utilizes the classical RANSAC algorithm and polynomial-based coordinate fitting in a sequential manner. Extensive experiments on a newly developed test set of 60 OCTA-wfCFP pairs verify the viability of CARe for CMFIR.
- Abstract(参考訳): クロスモーダル・ファンドス画像登録(CMFIR)に関するこれまでの研究は、小さなクロスモーダル・フィールド・オブ・ビュー(FoV)の相違を前提としている。
対照的に、本論文はFoVの相違が大きいより難易度の高いシナリオを対象としており、現在の手法を直接適用することは失敗する。
非常に単純で効果的な画像登録法であるクロスモーダル・ファンドス・イメージ・レジストレーション(CARe)について,クロップとアライメントを提案する。
具体的には、ソース画像としてFoVが小さいOCTAと、ターゲット画像として広視野カラー写真(wfCFP)が与えられた場合、クロップ手術では、ターゲット画像からFoVと大まかに整列したサブイメージから、網膜の生理的構造を利用して収穫する。
この操作により、画像登録のための従来のFoV差分指向手法を再利用することができる。
さらに、古典的RANSACアルゴリズムと多項式ベースの座標フィッティングを逐次的に利用する二重適合型アライメントモジュールにより空間変換を改善する。
60個のOCTA-wfCFPペアからなる新しいテストセットの大規模な実験により、CMFIRに対するCAReの有効性が確認された。
関連論文リスト
- Feature Alignment with Equivariant Convolutions for Burst Image Super-Resolution [52.55429225242423]
本稿では,同変畳み込みに基づくアライメントを特徴とするBurst Image Super-Resolution (BISR) のための新しいフレームワークを提案する。
これにより、アライメント変換は画像領域の明示的な監督を通じて学習でき、特徴領域に容易に適用できる。
BISRベンチマークの実験は、定量的メトリクスと視覚的品質の両方において、我々のアプローチの優れた性能を示している。
論文 参考訳(メタデータ) (2025-03-11T11:13:10Z) - Mind the Gap Between Prototypes and Images in Cross-domain Finetuning [64.97317635355124]
プロトタイプと画像にそれぞれ異なる変換を適用するために,コントラスト型プロトタイプイメージ適応(CoPA)を提案する。
Meta-Datasetの実験では、CoPAが最先端のパフォーマンスをより効率的に達成できることが示されている。
論文 参考訳(メタデータ) (2024-10-16T11:42:11Z) - Improving Misaligned Multi-modality Image Fusion with One-stage
Progressive Dense Registration [67.23451452670282]
多モード画像間の相違は、画像融合の課題を引き起こす。
マルチスケールプログレッシブ・センス・レジストレーション方式を提案する。
このスキームは、一段階最適化のみで粗大な登録を行う。
論文 参考訳(メタデータ) (2023-08-22T03:46:24Z) - Supervised Domain Adaptation for Recognizing Retinal Diseases from
Wide-Field Fundus Images [23.503104144297684]
本稿では,広視野 (WF) と超広視野 (UWF) の眼底画像から複数の網膜疾患を認識するための課題について述べる。
クロスドメイン協調学習(CdCL)というドメイン適応手法を提案する。
教師なしドメイン適応における固定ベースのミックスアップの成功に触発されて、我々はこの戦略を現在のタスクに再活用する。
論文 参考訳(メタデータ) (2023-05-14T05:57:11Z) - PIT: Position-Invariant Transform for Cross-FoV Domain Adaptation [53.428312630479816]
フィールド・オブ・ビュー(FoV)ギャップは、ソースとターゲットドメイン間の顕著なインスタンスの出現差を誘導する。
本研究では,異なる領域における画像の整合性を改善するために,textbfPosition-Invariant Transform (PIT)を提案する。
論文 参考訳(メタデータ) (2021-08-16T15:16:47Z) - TFill: Image Completion via a Transformer-Based Architecture [69.62228639870114]
画像補完を無方向性シーケンス対シーケンス予測タスクとして扱うことを提案する。
トークン表現には,小かつ重複しないRFを持つ制限型CNNを用いる。
第2フェーズでは、可視領域と発生領域の外観整合性を向上させるために、新しい注意認識層(aal)を導入する。
論文 参考訳(メタデータ) (2021-04-02T01:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。