論文の概要: Retinal IPA: Iterative KeyPoints Alignment for Multimodal Retinal   Imaging
        - arxiv url: http://arxiv.org/abs/2407.18362v1
- Date: Thu, 25 Jul 2024 19:51:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-29 15:09:00.956035
- Title: Retinal IPA: Iterative KeyPoints Alignment for Multimodal Retinal   Imaging
- Title(参考訳): 網膜ITA:マルチモーダル網膜イメージングのための反復的キーポイントアライメント
- Authors: Jiacheng Wang, Hao Li, Dewei Hu, Rui Xu, Xing Yao, Yuankai K. Tao, Ipek Oguz, 
- Abstract要約: マルチモダリティ網膜画像間のマッチングと登録を強化するために,クロスモダリティ特徴を学習するための新しいフレームワークを提案する。
本モデルでは,従来の学習に基づく特徴検出と記述手法の成功を例に挙げる。
同じ画像の異なるオーグメンテーション間のセグメンテーション一貫性を強制することにより、自己指導的な方法で訓練される。
- 参考スコア(独自算出の注目度): 11.70130626541926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract:   We propose a novel framework for retinal feature point alignment, designed for learning cross-modality features to enhance matching and registration across multi-modality retinal images. Our model draws on the success of previous learning-based feature detection and description methods. To better leverage unlabeled data and constrain the model to reproduce relevant keypoints, we integrate a keypoint-based segmentation task. It is trained in a self-supervised manner by enforcing segmentation consistency between different augmentations of the same image. By incorporating a keypoint augmented self-supervised layer, we achieve robust feature extraction across modalities. Extensive evaluation on two public datasets and one in-house dataset demonstrates significant improvements in performance for modality-agnostic retinal feature alignment. Our code and model weights are publicly available at \url{https://github.com/MedICL-VU/RetinaIPA}. 
- Abstract(参考訳): マルチモーダル網膜画像間のマッチングと登録を強化するために, クロスモーダルな特徴を学習するために設計された, 網膜特徴点アライメントのための新しいフレームワークを提案する。
本モデルでは,従来の学習に基づく特徴検出と記述手法の成功を例に挙げる。
ラベルのないデータをうまく活用し、関連するキーポイントを再現するためにモデルを制約するために、キーポイントベースのセグメンテーションタスクを統合する。
同じ画像の異なるオーグメンテーション間のセグメンテーション一貫性を強制することにより、自己指導的な方法で訓練される。
キーポイント拡張型自己教師層を組み込むことで、モダリティ間のロバストな特徴抽出を実現する。
2つのパブリックデータセットと1つの社内データセットに対する広範囲な評価は、モダリティ非依存性網膜機能アライメントのパフォーマンスを著しく改善したことを示している。
コードとモデルの重み付けは \url{https://github.com/MedICL-VU/RetinaIPA} で公開されています。
 
      
        関連論文リスト
        - Multi-scale Feature Enhancement in Multi-task Learning for Medical Image   Analysis [1.6916040234975798]
 医用画像における伝統的な深層学習法は、分割や分類にのみ焦点をあてることが多い。
このモデルでは,デコーダがセグメント化マスクを生成するのに対して,エンコーダによって抽出された特徴を分類ラベルの予測に利用する。
複数の医療データセットにまたがる実験結果から, セグメンテーションタスクと分類タスクの両方において, モデルの優れた性能が確認された。
 論文  参考訳(メタデータ) (2024-11-30T04:20:05Z)
- Vision-Enhanced Semantic Entity Recognition in Document Images via
  Visually-Asymmetric Consistency Learning [19.28860833813788]
 既存のモデルでは、視覚的エンコーダを弱いモード間監視信号で訓練することが一般的である。
そこで本稿では,textbfVisually-textbfAsymmetric cotextbfNsistentextbfCy textbfLearning (textscVancl) アプローチを提案する。
 論文  参考訳(メタデータ) (2023-10-23T10:37:22Z)
- Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
 人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
 論文  参考訳(メタデータ) (2023-08-04T10:28:48Z)
- LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
  Feature Similarity [49.84167231111667]
 自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
 論文  参考訳(メタデータ) (2022-04-06T17:48:18Z)
- CAD: Co-Adapting Discriminative Features for Improved Few-Shot
  Classification [11.894289991529496]
 少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
 論文  参考訳(メタデータ) (2022-03-25T06:14:51Z)
- Beyond Simple Meta-Learning: Multi-Purpose Models for Multi-Domain,
  Active and Continual Few-Shot Learning [41.07029317930986]
 低ラベル方式で動作するモデルの分散感応クラスを提案する。
最初の手法であるSimple CNAPSは階層的に正規化されたマハラノビス距離に基づく分類器を用いる。
我々はさらに、このアプローチをトランスダクティブ学習環境に拡張し、トランスダクティブCNAPSを提案する。
 論文  参考訳(メタデータ) (2022-01-13T18:59:02Z)
- Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
 我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
 論文  参考訳(メタデータ) (2021-06-08T06:13:11Z)
- Multimodal Contrastive Training for Visual Representation Learning [45.94662252627284]
 マルチモーダルデータを取り入れた視覚表現の学習手法を開発した。
本手法は,各モダリティおよびセマンティクス情報内の本質的なデータ特性をクロスモーダル相関から同時に利用する。
統合フレームワークにマルチモーダルトレーニングを組み込むことで,より強力で汎用的な視覚的特徴を学習することができる。
 論文  参考訳(メタデータ) (2021-04-26T19:23:36Z)
- Weakly Supervised Video Salient Object Detection [79.51227350937721]
 本稿では,relabeled relabeled "fixation guided scribble annotations" に基づく最初の弱教師付きビデオサリエント物体検出モデルを提案する。
効果的なマルチモーダル学習と長期時間文脈モデリングを実現するために,「アプレンス・モーション・フュージョン・モジュール」と双方向のConvLSTMベースのフレームワークを提案する。
 論文  参考訳(メタデータ) (2021-04-06T09:48:38Z)
- Distribution Alignment: A Unified Framework for Long-tail Visual
  Recognition [52.36728157779307]
 長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
 論文  参考訳(メタデータ) (2021-03-30T14:09:53Z)
- Joint Self-Attention and Scale-Aggregation for Self-Calibrated Deraining
  Network [13.628218953897946]
 本稿では,JDNetとよばれる有効アルゴリズムを提案する。
自己校正畳み込みを用いたスケール・アグリゲーション・セルフアグリゲーション・モジュールを巧みに設計することにより,提案モデルはより優れたデコレーション結果が得られる。
 論文  参考訳(メタデータ) (2020-08-06T17:04:34Z)
- Saliency-driven Class Impressions for Feature Visualization of Deep
  Neural Networks [55.11806035788036]
 分類に欠かせないと思われる特徴を視覚化することは有利である。
既存の可視化手法は,背景特徴と前景特徴の両方からなる高信頼画像を生成する。
本研究では,あるタスクにおいて最も重要であると考えられる識別的特徴を可視化するための,サリエンシ駆動型アプローチを提案する。
 論文  参考訳(メタデータ) (2020-07-31T06:11:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
       
     
      指定された論文の情報です。
      本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。