論文の概要: Unsupervised Deep Learning-based Keypoint Localization Estimating Descriptor Matching Performance
- arxiv url: http://arxiv.org/abs/2505.02779v1
- Date: Mon, 05 May 2025 16:46:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.74462
- Title: Unsupervised Deep Learning-based Keypoint Localization Estimating Descriptor Matching Performance
- Title(参考訳): ディクリプタマッチング性能を考慮した教師なし深層学習に基づくキーポイント位置推定
- Authors: David Rivas-Villar, Álvaro S. Hervella, José Rouco, Jorge Novo,
- Abstract要約: カラーファンドス画像のための新規な教師なし登録パイプラインを提案する。
我々のアプローチは、特異な記述子を持つ位置が信頼できるキーポイントを構成するという原則に基づいている。
4つのホールドアウトデータセットの包括的評価により,本手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 6.618504904743609
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Retinal image registration, particularly for color fundus images, is a challenging yet essential task with diverse clinical applications. Existing registration methods for color fundus images typically rely on keypoints and descriptors for alignment; however, a significant limitation is their reliance on labeled data, which is particularly scarce in the medical domain. In this work, we present a novel unsupervised registration pipeline that entirely eliminates the need for labeled data. Our approach is based on the principle that locations with distinctive descriptors constitute reliable keypoints. This fully inverts the conventional state-of-the-art approach, conditioning the detector on the descriptor rather than the opposite. First, we propose an innovative descriptor learning method that operates without keypoint detection or any labels, generating descriptors for arbitrary locations in retinal images. Next, we introduce a novel, label-free keypoint detector network which works by estimating descriptor performance directly from the input image. We validate our method through a comprehensive evaluation on four hold-out datasets, demonstrating that our unsupervised descriptor outperforms state-of-the-art supervised descriptors and that our unsupervised detector significantly outperforms existing unsupervised detection methods. Finally, our full registration pipeline achieves performance comparable to the leading supervised methods, while not employing any labeled data. Additionally, the label-free nature and design of our method enable direct adaptation to other domains and modalities.
- Abstract(参考訳): 網膜画像の登録、特に色眼底画像は、多様な臨床応用において難しいが必須の課題である。
既存のカラーファンドス画像の登録方法は通常、アライメントのためのキーポイントとディスクリプタに依存しているが、重要な制限はラベル付きデータに依存しており、特に医療領域では不十分である。
本研究では,ラベル付きデータの必要性を完全に排除した新規な教師なし登録パイプラインを提案する。
我々のアプローチは、特異な記述子を持つ位置が信頼できるキーポイントを構成するという原則に基づいている。
これは従来の最先端のアプローチを完全に逆転させ、逆ではなくディスクリプタに検出器を条件付けする。
まず、キーポイント検出やラベルを使わずに動作し、網膜画像中の任意の位置の記述子を生成する革新的な記述子学習法を提案する。
次に,入力画像から直接記述子の性能を推定して動作する,ラベルフリーなキーポイント検出ネットワークを提案する。
提案手法は,4つのホールドアウトデータセットの総合的な評価を通じて検証し,教師なし記述子は最先端の教師付き記述子より優れ,教師なし検出器は既存の教師なし検出方法より著しく優れていることを示した。
最後に、私たちの完全な登録パイプラインは、ラベル付きデータを使用せずに、主要な教師付きメソッドに匹敵するパフォーマンスを達成する。
さらに,本手法のラベルフリーな性質と設計により,他の領域やモダリティへの直接適応が可能となる。
関連論文リスト
- Unsupervised training of keypoint-agnostic descriptors for flexible retinal image registration [6.618504904743609]
我々はキーポイント検出に依存しない新しい教師なし記述子学習法を開発した。
これにより、結果として生じるディスクリプタネットワークは、登録推論中に使用されるキーポイント検出器に非依存となる。
提案手法は, 教師付き手法と比較して, 性能損失を発生させることなく, 正確な登録を行うことを示す。
論文 参考訳(メタデータ) (2025-05-05T17:02:13Z) - Prototype-Based Continual Learning with Label-free Replay Buffer and Cluster Preservation Loss [3.824522034247845]
連続学習技術は、単純なリプレイサンプル選択プロセスを使用し、その後のタスクでそれらを使用する。
本稿では,ラベルのないプロトタイプを自動的に選択することで,これから離れる。
クラスインクリメンタルとドメインインクリメンタルのシナリオでは、"Push-away"と"pull-toward"のメカニズムも導入されている。
論文 参考訳(メタデータ) (2025-04-09T19:26:26Z) - MVC-VPR: Mutual Learning of Viewpoint Classification and Visual Place Recognition [13.681827205077727]
本稿では,視点的自己分類と視覚的位置認識の相互学習を紹介する。
データセットは、位置認識のための記述子抽出器を同時に訓練しながら、教師なしの方法で分割される。
提案手法は, 基底真理ラベルを用いてデータセットを分割する, 最先端(SOTA)手法を抽出する。
論文 参考訳(メタデータ) (2024-12-12T11:49:18Z) - Neighbour Consistency Guided Pseudo-Label Refinement for Unsupervised
Person Re-Identification [80.98291772215154]
教師なしの人物再識別(ReID)は、アノテーションを使わずに人物検索のための識別的アイデンティティの特徴を学習することを目的としている。
近年の進歩はクラスタリングに基づく擬似ラベルを活用することで実現されている。
本稿では, Pseudo Label Refinement フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-30T09:39:57Z) - Unsupervised Domain Adaptive Salient Object Detection Through
Uncertainty-Aware Pseudo-Label Learning [104.00026716576546]
そこで本研究では,手動のアノテーションを使わずに,自然に高いピクセルラベル品質を有する合成・クリーンなラベルから,サリエンスを学習することを提案する。
提案手法は,複数のベンチマークデータセット上で,既存の最先端の深層教師なしSOD法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-26T16:03:55Z) - SparseDet: Improving Sparsely Annotated Object Detection with
Pseudo-positive Mining [76.95808270536318]
Pseudo- positive mining を用いてラベル付き地域とラベルなし地域を分離するエンド・ツー・エンドシステムを提案する。
ラベル付き領域は通常通り処理されるが、ラベルなし領域の処理には自己教師付き学習が使用される。
我々は,PASCAL-VOCとCOCOデータセットの5つの分割に対して,最先端の性能を達成するための徹底的な実験を行った。
論文 参考訳(メタデータ) (2022-01-12T18:57:04Z) - Decoupling Makes Weakly Supervised Local Feature Better [39.17900986173409]
本稿では,弱教師付き局所的特徴学習に適した非結合型記述型検出パイプラインを提案する。
パイプライン内では、検出ステップが記述ステップから切り離され、差別的で堅牢な記述子が学習されるまで延期される。
さらに,カメラのポーズ情報を明確に利用して記述子学習を改善するために,ライン・ツー・ウインドウ検索方式を導入する。
論文 参考訳(メタデータ) (2022-01-08T16:51:02Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Dual-Refinement: Joint Label and Feature Refinement for Unsupervised
Domain Adaptive Person Re-Identification [51.98150752331922]
Unsupervised Domain Adaptive (UDA) Person Re-identification (再ID) は、ターゲットドメインデータのラベルが欠落しているため、難しい作業です。
オフラインクラスタリングフェーズにおける擬似ラベルとオンライントレーニングフェーズにおける特徴を共同で改良する,デュアルリファインメントと呼ばれる新しいアプローチを提案する。
本手法は最先端手法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2020-12-26T07:35:35Z) - Solving Missing-Annotation Object Detection with Background
Recalibration Loss [49.42997894751021]
本稿では,新しい,かつ困難な検出シナリオに焦点を当てる。 真のオブジェクト/インスタンスの大部分は,データセットにラベル付けされていない。
従来, ソフトサンプリングを用いて, 正の例と重なり合うRoIsの勾配を再重み付けする手法が提案されてきた。
本稿では、予め定義されたIoU閾値と入力画像に基づいて損失信号を自動的に校正できる、バックグラウンド校正損失(BRL)と呼ばれる優れた解を提案する。
論文 参考訳(メタデータ) (2020-02-12T23:11:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。