論文の概要: Meta-learners for few-shot weakly-supervised optic disc and cup segmentation on fundus images
- arxiv url: http://arxiv.org/abs/2512.15061v1
- Date: Wed, 17 Dec 2025 03:56:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.848503
- Title: Meta-learners for few-shot weakly-supervised optic disc and cup segmentation on fundus images
- Title(参考訳): 弱制御光ディスク用メタラーナーと眼底画像上のカップセグメンテーション
- Authors: Pandega Abyan Zumarsyah, Igi Ardiyanto, Hanung Adi Nugroho,
- Abstract要約: データ使用量のバランスを保ち、ショット数を多様化するOmniメタトレーニングを導入する。
計算コストを削減する効率的なバージョンを開発する。
EO-ProtoSegは、教師なしのドメイン適応手法に匹敵するが、200万のパラメータよりはるかに軽量である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study develops meta-learners for few-shot weakly-supervised segmentation (FWS) to address the challenge of optic disc (OD) and optic cup (OC) segmentation for glaucoma diagnosis with limited labeled fundus images. We significantly improve existing meta-learners by introducing Omni meta-training which balances data usage and diversifies the number of shots. We also develop their efficient versions that reduce computational costs. In addition, we develop sparsification techniques that generate more customizable and representative scribbles and other sparse labels. After evaluating multiple datasets, we find that Omni and efficient versions outperform the original versions, with the best meta-learner being Efficient Omni ProtoSeg (EO-ProtoSeg). It achieves intersection over union (IoU) scores of 88.15% for OD and 71.17% for OC on the REFUGE dataset using just one sparsely labeled image, outperforming few-shot and semi-supervised methods which require more labeled images. Its best performance reaches 86.80% for OD and 71.78%for OC on DRISHTIGS, 88.21% for OD and 73.70% for OC on REFUGE, 80.39% for OD and 52.65% for OC on REFUGE. EO-ProtoSeg is comparable to unsupervised domain adaptation methods yet much lighter with less than two million parameters and does not require any retraining.
- Abstract(参考訳): 本研究は,光ディスク (OD) とオプティカルカップ (OC) セグメンテーション (OC) の課題に対処するために, 少数ショット弱教師付きセグメンテーション (FWS) のためのメタラーナーを開発した。
我々はOmniメタ学習を導入することで既存のメタラーナーを大幅に改善し、データ使用量のバランスを保ち、ショット数を多様化する。
計算コストを削減できる効率的なバージョンも開発しています。
さらに、よりカスタマイズ可能で代表的なスクリブルやその他のスパースラベルを生成するスペーシフィケーション技術を開発した。
複数のデータセットを評価した結果、Omniと効率的なバージョンはオリジナルのバージョンよりも優れており、最も優れたメタラーナーはEO-ProtoSeg(Efficient Omni ProtoSeg)であることがわかった。
DOの88.15%、REFUGEのデータセットでのOCの71.17%のコングレーション(IoU)スコアを、わずかにラベル付けされた1つの画像で達成し、よりラベル付けされた画像を必要とする少数ショットおよび半教師付き手法より優れている。
最高性能はDOが86.80%、DOが71.78%、ODが88.21%、OCが73.70%、ODが80.39%、OCが52.65%である。
EO-ProtoSegは、教師なしのドメイン適応手法に匹敵するが、200万のパラメータよりはるかに軽量であり、再トレーニングを必要としない。
関連論文リスト
- AortaDiff: A Unified Multitask Diffusion Framework For Contrast-Free AAA Imaging [7.769952833857425]
非コントラストCTスキャンから合成CECT画像を生成する統合ディープラーニングフレームワークを提案する。
本研究では,条件拡散モデル(CDM)とマルチタスク学習を統合し,画像合成と解剖学的セグメンテーションのエンドツーエンド共同最適化を実現する。
論文 参考訳(メタデータ) (2025-10-01T22:19:27Z) - UOPSL: Unpaired OCT Predilection Sites Learning for Fundus Image Diagnosis Augmentation [47.08936359575974]
我々は,OCTから派生した空間的先行情報を用いて,捕食部位を動的に識別する新しい無ペアマルチモーダルフレームワーク UOPSL を提案する。
我々のアプローチは、拡張された病気のテキスト記述を通して、未治療の根本とOCTを橋渡しする。
28の重要カテゴリにわたる9つの多様なデータセットで実施された実験は、我々のフレームワークが既存のベンチマークを上回っていることを示している。
論文 参考訳(メタデータ) (2025-09-10T14:19:59Z) - Deep learning and classical computer vision techniques in medical image analysis: Case studies on brain MRI tissue segmentation, lung CT COPD registration, and skin lesion classification [0.0]
本研究は,複数の画像モダリティにまたがるセグメンテーション,登録,分類タスクを体系的に評価した最初のものである。
脳組織のセグメンテーションでは、3D DLモデルは2Dモデルとパッチベースモデルより優れており、特に nnU-Net の Dice は 0.9397 である。
肺CTでは、古典エラスティス法がDLモデルより優れ、最小目標登録誤差(TRE)は6.68mmであった。
皮膚病変分類では、InceptionResNetV2やResNet50のようなDLモデルのアンサンブルが優れ、最大90.44%、バイナリとマルチの93.62%の精度が達成された。
論文 参考訳(メタデータ) (2025-02-26T16:05:08Z) - Controllable retinal image synthesis using conditional StyleGAN and latent space manipulation for improved diagnosis and grading of diabetic retinopathy [0.0]
本稿では,高忠実かつ多様なDRファウンダス画像を生成するためのフレームワークを提案する。
生成画像内のDR重大度と視覚的特徴を包括的に制御する。
我々は、条件付きで生成したDR画像をグレードで操作し、データセットの多様性をさらに向上する。
論文 参考訳(メタデータ) (2024-09-11T17:08:28Z) - Patch-Level Contrasting without Patch Correspondence for Accurate and
Dense Contrastive Representation Learning [79.43940012723539]
ADCLRは、正確で高密度な視覚表現を学習するための自己教師型学習フレームワークである。
提案手法は, コントラッシブな手法のための新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-23T07:38:09Z) - Automated segmentation of microvessels in intravascular OCT images using
deep learning [0.0]
血管内光コヒーレンス断層撮影(IV OCT)画像における微小血管の自動検出法を開発した。
85病変,37病変から8,403例のOCT画像フレームを解析した。
本手法は,698枚の画像フレームに微小血管が存在するのに対し,手動による解析では730枚の画像フレームが4.4%の差を示した。
論文 参考訳(メタデータ) (2022-10-01T02:14:14Z) - WSSS4LUAD: Grand Challenge on Weakly-supervised Tissue Semantic
Segmentation for Lung Adenocarcinoma [51.50991881342181]
この課題には10,091個のパッチレベルのアノテーションと1300万以上のラベル付きピクセルが含まれる。
第一位チームは0.8413mIoUを達成した(腫瘍:0.8389、ストーマ:0.7931、正常:0.8919)。
論文 参考訳(メタデータ) (2022-04-13T15:27:05Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - Robust Segmentation of Optic Disc and Cup from Fundus Images Using Deep
Neural Networks [20.518490163045936]
本稿では、残差エンコーダデコーダネットワーク(REDNet)に基づく地域畳み込みニューラルネットワーク(RCNN)を用いた、光学ディスク(OD)と光学カップ(OC)の同時分割のための新しいアプローチを提案する。
最新の技術とパフォーマンスの比較と、標準の公開基盤画像データセットの広範な検証は、RED-RCNNがMRCNNと比較して優れたパフォーマンスを持っていることを示しています。
論文 参考訳(メタデータ) (2020-12-13T19:24:53Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Differentiable Augmentation for Data-Efficient GAN Training [48.920992130257595]
DiffAugmentは,実検体と偽検体の両方に様々な種類の微分可能拡張を付与することにより,GANのデータ効率を向上させる簡易な手法である。
本手法は,既存の移動学習アルゴリズムと同等でありながら,事前学習することなく,100個の画像のみを用いて高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2020-06-18T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。