論文の概要: Cross-domain Collaborative Learning for Recognizing Multiple Retinal
Diseases from Wide-Field Fundus Images
- arxiv url: http://arxiv.org/abs/2305.08078v1
- Date: Sun, 14 May 2023 05:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 17:43:27.629994
- Title: Cross-domain Collaborative Learning for Recognizing Multiple Retinal
Diseases from Wide-Field Fundus Images
- Title(参考訳): 広視野眼底画像から複数の網膜疾患を認識するためのクロスドメイン協調学習
- Authors: Qijie Wei, Jingyuan Yang, Bo Wang, Jinrui Wang, Jianchun Zhao, Xinyu
Zhao, Sheng Yang, Niranchana Manivannan, Youxin Chen, Dayong Ding and Xirong
Li
- Abstract要約: 本稿では,広視野 (WF) と超広視野 (UWF) の眼底画像から複数の網膜疾患を認識するための課題について述べる。
既存のラベル付きカラーファンドの写真データの効果的な再利用のために,クロスドメイン協調学習を提案する。
- 参考スコア(独自算出の注目度): 27.962981550021215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the emerging task of recognizing multiple retinal
diseases from wide-field (WF) and ultra-wide-field (UWF) fundus images. For an
effective reuse of existing labeled color fundus photo (CFP) data, we propose
Cross-domain Collaborative Learning (CdCL). Inspired by the success of
fixed-ratio based mixup in unsupervised domain adaptation, we re-purpose this
strategy for the current task. Due to the intrinsic disparity between the
field-of-view of CFP and WF/UWF images, a scale bias naturally exists in a
mixup sample that the anatomic structure from a CFP image will be considerably
larger than its WF/UWF counterpart. The CdCL method resolves the issue by
Scale-bias Correction, which employs Transformers for producing scale-invariant
features. As demonstrated by extensive experiments on multiple datasets
covering both WF and UWF images, the proposed method compares favorably against
a number of competitive baselines.
- Abstract(参考訳): 本稿では,広視野 (WF) と超広視野 (UWF) の眼底画像から複数の網膜疾患を認識するための課題について述べる。
既存のラベル付きカラーファンドス写真(CFP)データを効果的に再利用するために,クロスドメイン協調学習(CdCL)を提案する。
教師なしドメイン適応における固定比に基づくミックスアップの成功に触発されて、我々はこの戦略を現在のタスクに再活用する。
CFP画像とWF/UWF画像の視野の違いにより,CFP画像の解剖学的構造がWF/UWF画像よりもかなり大きくなるという,スケールバイアスが自然に存在する。
CdCL法は,変圧器を用いたスケール・バイアス補正法により,スケール不変な特徴を生成できる。
wf画像とuwf画像の両方をカバーする複数のデータセットに関する広範囲な実験によって示されているように、提案手法は多くの競合ベースラインと比較できる。
関連論文リスト
- Unsupervised Modality Adaptation with Text-to-Image Diffusion Models for Semantic Segmentation [54.96563068182733]
セグメンテーションタスクのためのテキスト・ツー・イメージ拡散モデル(MADM)を用いたモダリティ適応を提案する。
MADMは、広範囲な画像とテキストのペアで事前訓練されたテキストと画像の拡散モデルを使用して、モデルの相互モダリティ能力を向上する。
我々は,MADMが画像から深度,赤外線,イベントのモダリティといった様々なモダリティタスクにまたがって,最先端の適応性能を実現することを示す。
論文 参考訳(メタデータ) (2024-10-29T03:49:40Z) - UWAFA-GAN: Ultra-Wide-Angle Fluorescein Angiography Transformation via Multi-scale Generation and Registration Enhancement [17.28459176559761]
UWF-FA (UWF fluorescein angiography) は、患者の手や肘に注入して蛍光染料を投与する必要がある。
注射による潜在的な副作用を軽減するため、研究者はクロスモダリティ医療画像生成アルゴリズムの開発を提案した。
本稿では,UWF-SLOからUWF-FAを合成する条件生成対向ネットワーク(UWAFA-GAN)を提案する。
論文 参考訳(メタデータ) (2024-05-01T14:27:43Z) - Misalignment-Robust Frequency Distribution Loss for Image Transformation [51.0462138717502]
本稿では,画像強調や超解像といった深層学習に基づく画像変換手法における共通の課題に対処することを目的とする。
本稿では、周波数領域内における分布距離を計算するための、新しいシンプルな周波数分布損失(FDL)を提案する。
本手法は,周波数領域におけるグローバル情報の思慮深い活用により,トレーニング制約として実証的に有効であることが実証された。
論文 参考訳(メタデータ) (2024-02-28T09:27:41Z) - Improving Misaligned Multi-modality Image Fusion with One-stage
Progressive Dense Registration [67.23451452670282]
多モード画像間の相違は、画像融合の課題を引き起こす。
マルチスケールプログレッシブ・センス・レジストレーション方式を提案する。
このスキームは、一段階最適化のみで粗大な登録を行う。
論文 参考訳(メタデータ) (2023-08-22T03:46:24Z) - UWAT-GAN: Fundus Fluorescein Angiography Synthesis via Ultra-wide-angle
Transformation Multi-scale GAN [1.165405976310311]
眼底写真は、眼底疾患の臨床的および鑑別診断に欠かせない検査である。
基礎画像の現在の方法では高解像度の画像が得られず、微小な血管病変領域を捉えることができなかった。
本稿では,UWF-SLOからUWF-FAを合成する条件付き生成対向ネットワーク(UWAT-GAN)を提案する。
論文 参考訳(メタデータ) (2023-07-21T12:23:39Z) - MSCDA: Multi-level Semantic-guided Contrast Improves Unsupervised Domain
Adaptation for Breast MRI Segmentation in Small Datasets [5.272836235045653]
マルチレベルセマンティック・ガイド・コントラスト・ドメイン・アダプティブ・フレームワークを提案する。
我々のアプローチは、ドメイン間の特徴表現を整合させるために、対照的な学習を伴う自己学習を取り入れている。
特に,ピクセル・ツー・ピクセル,ピクセル・ツー・セントロイド,セントロイド・ツー・セントロイドのコントラストを取り入れることで,コントラストの損失を増大させる。
論文 参考訳(メタデータ) (2023-01-04T19:16:55Z) - Multi-Scale Multi-Target Domain Adaptation for Angle Closure
Classification [50.658613573816254]
角度閉包分類のためのM2DAN(Multi-scale Multi-target Domain Adversarial Network)を提案する。
異なるスケールでのこれらのドメイン不変性に基づいて、ソースドメインで訓練されたディープモデルは、複数のターゲットドメインの角度クロージャを分類することができる。
論文 参考訳(メタデータ) (2022-08-25T15:27:55Z) - PIT: Position-Invariant Transform for Cross-FoV Domain Adaptation [53.428312630479816]
フィールド・オブ・ビュー(FoV)ギャップは、ソースとターゲットドメイン間の顕著なインスタンスの出現差を誘導する。
本研究では,異なる領域における画像の整合性を改善するために,textbfPosition-Invariant Transform (PIT)を提案する。
論文 参考訳(メタデータ) (2021-08-16T15:16:47Z) - Leveraging Regular Fundus Images for Training UWF Fundus Diagnosis
Models via Adversarial Learning and Pseudo-Labeling [29.009663623719064]
オプトスカメラによる超広視野(UWF)200度の基礎イメージングが徐々に導入されている。
正規の眼底画像は、大量の高品質な注釈付きデータを含んでいる。
ドメインギャップのため、UWFファウンス画像を認識するために、通常のファウンス画像によって訓練されたモデルは、性能が良くない。
本稿では,通常のUWFファウンダスとUWFファウンダスとのギャップを埋めるために,修正サイクル生成対逆ネットワーク(CycleGAN)モデルを提案する。
論文 参考訳(メタデータ) (2020-11-27T16:25:30Z) - Deep Semantic Matching with Foreground Detection and Cycle-Consistency [103.22976097225457]
深層ネットワークに基づく弱い教師付きセマンティックマッチングに対処する。
本研究では,背景乱れの影響を抑えるために,前景領域を明示的に推定する。
複数の画像にまたがって予測変換を強制し、幾何的に可視かつ一貫したサイクル一貫性の損失を発生させる。
論文 参考訳(メタデータ) (2020-03-31T22:38:09Z) - Bridge the Domain Gap Between Ultra-wide-field and Traditional Fundus
Images via Adversarial Domain Adaptation [38.697737290155715]
オプトスカメラによる超広視野の眼底撮影は、眼底に関するより広い洞察のために徐々に使われるようになった。
従来の眼底画像の研究は活発な話題であるが、UWF眼底画像の研究はほとんどない。
本稿では,2つのドメイン間のドメインギャップを埋めるフレキシブルなフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-23T01:31:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。