論文の概要: A ResNet is All You Need? Modeling A Strong Baseline for Detecting
Referable Diabetic Retinopathy in Fundus Images
- arxiv url: http://arxiv.org/abs/2210.03180v1
- Date: Thu, 6 Oct 2022 19:40:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:43:57.157304
- Title: A ResNet is All You Need? Modeling A Strong Baseline for Detecting
Referable Diabetic Retinopathy in Fundus Images
- Title(参考訳): ResNetは必要なものすべて?
基礎画像における糖尿病網膜症検出のための強力なベースラインのモデル化
- Authors: Tom\'as Castilla, Marcela S. Mart\'inez, Mercedes Legu\'ia, Ignacio
Larrabide, Jos\'e Ignacio Orlando
- Abstract要約: 我々は、シンプルな標準のResNet-18アーキテクチャに基づいて、このタスクの強力なベースラインをモデル化する。
我々のモデルは、異なる公開データセットから得られた61007個のテスト画像の組み合わせで、AUC = 0.955を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning is currently the state-of-the-art for automated detection of
referable diabetic retinopathy (DR) from color fundus photographs (CFP). While
the general interest is put on improving results through methodological
innovations, it is not clear how good these approaches perform compared to
standard deep classification models trained with the appropriate settings. In
this paper we propose to model a strong baseline for this task based on a
simple and standard ResNet-18 architecture. To this end, we built on top of
prior art by training the model with a standard preprocessing strategy but
using images from several public sources and an empirically calibrated data
augmentation setting. To evaluate its performance, we covered multiple
clinically relevant perspectives, including image and patient level DR
screening, discriminating responses by input quality and DR grade, assessing
model uncertainties and analyzing its results in a qualitative manner. With no
other methodological innovation than a carefully designed training, our ResNet
model achieved an AUC = 0.955 (0.953 - 0.956) on a combined test set of 61007
test images from different public datasets, which is in line or even better
than what other more complex deep learning models reported in the literature.
Similar AUC values were obtained in 480 images from two separate in-house
databases specially prepared for this study, which emphasize its generalization
ability. This confirms that standard networks can still be strong baselines for
this task if properly trained.
- Abstract(参考訳): 深層学習は、現在、カラーファンドス写真(CFP)から参照可能な糖尿病網膜症(DR)を自動的に検出するための最先端技術である。
方法論的な革新を通じて結果を改善することには一般的な関心があるが、適切な設定で訓練された標準の深層分類モデルと比較して、これらのアプローチがどの程度優れているかは明らかではない。
本稿では,シンプルな標準ResNet-18アーキテクチャに基づいて,このタスクの強力なベースラインをモデル化する。
この目的のために,我々は,標準前処理戦略を用いてモデルを訓練し,複数の公開ソースの画像と経験的に校正されたデータ拡張設定を用いて,先行技術の上に構築した。
その性能を評価するために,画像および患者レベルのDRスクリーニング,入力品質とDRグレードによる応答の識別,モデルの不確実性の評価,質的解析など,臨床上の複数の視点について検討した。
私たちのResNetモデルは、慎重に設計されたトレーニング以外に方法論的な革新はありませんでしたが、さまざまな公開データセットから61007のテストイメージを組み合わせて、AUC = 0.955 (0.953 - 0.956)を達成しました。
この研究のために特別に作成された2つの社内データベースから480枚の画像から同様のAUC値を得た。
これにより、適切にトレーニングされた場合、標準ネットワークは、このタスクの強力なベースラインとなることが保証される。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - Uncovering the effects of model initialization on deep model
generalization: A study with adult and pediatric Chest X-ray images [5.454938535500864]
ImageNet-pretrained weights showed superior generalizability than randomly opponents, against some findings for non-medical images。
これらのモデルの重量レベルのアンサンブルは、個々のモデルと比較してテスト中にかなり高いリコール(p 0.05)を示す。
論文 参考訳(メタデータ) (2023-09-20T13:42:48Z) - MedFMC: A Real-world Dataset and Benchmark For Foundation Model
Adaptation in Medical Image Classification [41.16626194300303]
ファンデーションモデルは、多くの場合、大規模なデータで事前訓練されているが、様々なビジョンや言語アプリケーションのジャンプ開始において、最も成功している。
最近の進歩により、下流タスクにおける基礎モデルの適応は、少数のトレーニングサンプルだけで効率的に行えるようになった。
しかし, 医用画像解析におけるそのような学習パラダイムの適用は, 一般に公開されているデータやベンチマークが不足しているため, 依然として少ない。
論文 参考訳(メタデータ) (2023-06-16T01:46:07Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Self-similarity-based super-resolution of photoacoustic angiography from
hand-drawn doodles [9.646172419644088]
光音響血管造影(PAA)は、血管イメージをアンダーサンプル画像から復元し、疾患の診断を容易にする強力なツールである。
鍛造されたPAA画像で訓練した超高分解能PAA法を用いる新しい手法を提案する。
我々のアプローチは、視覚タスクのためのゼロショット学習ニューラルネットワークを探索する有望な可能性を示している。
論文 参考訳(メタデータ) (2023-05-02T02:40:47Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - An Ensemble Method to Automatically Grade Diabetic Retinopathy with
Optical Coherence Tomography Angiography Images [4.640835690336653]
糖尿病網膜症解析チャレンジ(DRAC)2022から得られる糖尿病網膜症(DR)画像を自動的に評価するアンサンブル法を提案する。
まず、最先端の分類ネットワークを採用し、利用可能なデータセットの異なる分割でUW-OCTA画像のグレードをトレーニングする。
最終的に、25のモデルを取得し、そのうち上位16のモデルを選択し、アンサンブルして最終的な予測を生成する。
論文 参考訳(メタデータ) (2022-12-12T22:06:47Z) - FundusQ-Net: a Regression Quality Assessment Deep Learning Algorithm for
Fundus Images Quality Grading [0.0]
緑内障、糖尿病網膜症、加齢に伴う黄斑変性は、視力障害や視覚障害の主な原因である。
このプロセスの鍵となるステップは、人間のオペレータや機械学習モデルによってこれらが解釈可能であることを確認するために、ベース画像の品質を自動的に見積もることである。
本稿では,この新たな尺度に対して,新たな基礎画像品質尺度とディープラーニング(DL)モデルを提案する。
論文 参考訳(メタデータ) (2022-05-02T21:01:34Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Improved Techniques for Training Score-Based Generative Models [104.20217659157701]
本研究では,高次元空間におけるスコアモデルからの学習とサンプリングに関する新しい理論的解析を行う。
スコアベースの生成モデルを前例のない解像度で画像に拡張することができる。
我々のスコアベースモデルは、様々な画像データセットで最良クラスGANに匹敵する高忠実度サンプルを生成することができる。
論文 参考訳(メタデータ) (2020-06-16T09:17:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。