論文の概要: QuickQual: Lightweight, convenient retinal image quality scoring with
off-the-shelf pretrained models
- arxiv url: http://arxiv.org/abs/2307.13646v1
- Date: Tue, 25 Jul 2023 16:55:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 16:07:26.252056
- Title: QuickQual: Lightweight, convenient retinal image quality scoring with
off-the-shelf pretrained models
- Title(参考訳): QuickQual:市販プレトレーニングモデルによる軽量で便利な網膜画像品質評価
- Authors: Justin Engelmann, Amos Storkey, Miguel O. Bernabeu
- Abstract要約: 画像品質は、従来型およびディープラーニング(DL)ベースの網膜画像解析のアプローチにおいて重要な問題である。
本稿では,1つの既製のImageNet-pretrained Densenet121バックボーンとSVM(Support Vector Machine)を組み合わせたRIQSに対する簡単なアプローチを提案する。
QuickQualは非常によく機能し、EyeQの最先端を新たに設定する。
第2のモデルであるQuickQual Mega Minified Estimator(QuickQual-MEME)を、市販のDensenet121上に10個のパラメータで構成する。
- 参考スコア(独自算出の注目度): 2.9005223064604078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image quality remains a key problem for both traditional and deep learning
(DL)-based approaches to retinal image analysis, but identifying poor quality
images can be time consuming and subjective. Thus, automated methods for
retinal image quality scoring (RIQS) are needed. The current state-of-the-art
is MCFNet, composed of three Densenet121 backbones each operating in a
different colour space. MCFNet, and the EyeQ dataset released by the same
authors, was a huge step forward for RIQS. We present QuickQual, a simple
approach to RIQS, consisting of a single off-the-shelf ImageNet-pretrained
Densenet121 backbone plus a Support Vector Machine (SVM). QuickQual performs
very well, setting a new state-of-the-art for EyeQ (Accuracy: 88.50% vs 88.00%
for MCFNet; AUC: 0.9687 vs 0.9588). This suggests that RIQS can be solved with
generic perceptual features learned on natural images, as opposed to requiring
DL models trained on large amounts of fundus images. Additionally, we propose a
Fixed Prior linearisation scheme, that converts EyeQ from a 3-way
classification to a continuous logistic regression task. For this task, we
present a second model, QuickQual MEga Minified Estimator (QuickQual-MEME),
that consists of only 10 parameters on top of an off-the-shelf Densenet121 and
can distinguish between gradable and ungradable images with an accuracy of
89.18% (AUC: 0.9537). Code and model are available on GitHub:
https://github.com/justinengelmann/QuickQual . QuickQual is so lightweight,
that the entire inference code (and even the parameters for QuickQual-MEME) is
already contained in this paper.
- Abstract(参考訳): 画像品質は、従来型およびディープラーニング(DL)ベースの網膜画像解析のアプローチにおいて重要な問題であり続けているが、画質の悪い画像を特定するのには時間がかかる。
そのため、網膜画像品質スコアリング(RIQS)の自動化手法が必要である。
現在の最先端はMCFNetで、3つのDensenet121バックボーンがそれぞれ異なる色空間で動作する。
MCFNetと、同じ著者がリリースしたEyeQデータセットは、RIQSにとって大きな前進でした。
我々は、RIQSのシンプルなアプローチであるQuickQualを紹介し、既製のImageNet-pretrained Densenet121バックボーンとSVM(Support Vector Machine)を組み合わせた。
quickqualは非常によく機能し、eyeqの最先端を新たに設定する(正確: 88.50%、mcfnet: 88.00%、auc: 0.9687 vs 0.9588)。
このことは、RIQSは大量の基礎画像に基づいて訓練されたDLモデルを必要とするのとは対照的に、自然画像上で学習した一般的な知覚的特徴で解決できることを示している。
さらに,EyeQを3方向分類から連続ロジスティック回帰タスクに変換する固定前線形化方式を提案する。
そこで本研究では,2番目のモデルであるquickqual mega minified estimator (quickqual-mememe) を提案する。このモデルでは,市販の densenet121 の上位10個のパラメータのみで構成され,89.18%の精度で分解性のある画像と分解性のない画像とを区別できる(auc: 0.9537)。
コードとモデルはgithubで入手できる。
QuickQualはとても軽量なので、推論コード全体(およびQuickQual-MEMEのパラメータさえも)がこの論文にすでに含まれています。
関連論文リスト
- Acquire Precise and Comparable Fundus Image Quality Score: FTHNet and FQS Dataset [17.550973358839574]
基礎画像品質評価(FIQA)におけるデータセットとアルゴリズムの限界に対処する。
従来のFIQA処理の分類結果よりも回帰結果を用いてこれらのタスクを解くために,FIQAトランスフォーマーベースハイパーネットワーク(FTHNet)を提案する。
FTHNetは、PLCCが0.9423、SRCCが0.9488で、基礎画像の品質スコアを与えることができ、パラメータが少なく、複雑さも少ない他の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2024-11-19T06:52:28Z) - Reference-Free Image Quality Metric for Degradation and Reconstruction Artifacts [2.5282283486446753]
品質要因予測器(QF)と呼ばれる基準のない品質評価ネットワークを開発する。
我々のQF予測器は7層からなる軽量で完全な畳み込みネットワークである。
JPEG圧縮画像パッチを入力としてランダムQFを受信し、対応するQFを正確に予測するように訓練する。
論文 参考訳(メタデータ) (2024-05-01T22:28:18Z) - Assessing Image Quality Using a Simple Generative Representation [34.173947968362675]
VAE-QAは、フル参照の存在下で画像品質を予測するためのシンプルで効率的な方法である。
提案手法を4つの標準ベンチマークで評価した結果,データセット間の一般化が著しく向上していることが判明した。
論文 参考訳(メタデータ) (2024-04-28T13:18:47Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - FLIQS: One-Shot Mixed-Precision Floating-Point and Integer Quantization Search [50.07268323597872]
本稿では,整数浮動小数点モデルと低精度浮動小数点モデルの両方において再学習を不要とする,最初のワンショット混合量子化探索を提案する。
整数モデルでは、ImageNet上のResNet-18の精度を1.31%、ResNet-50の精度を0.90%向上させる。
従来のFP8モデルと比較して,新しい混合精度浮動小数点探索を探索し,最大0.98%改善した。
論文 参考訳(メタデータ) (2023-08-07T04:17:19Z) - Attentions Help CNNs See Better: Attention-based Hybrid Image Quality
Assessment Network [20.835800149919145]
画像品質評価(IQA)アルゴリズムは、画像品質に対する人間の認識を定量化することを目的としている。
GAN(Generative Adversarial Network)によって生成された歪み画像を、一見現実的なテクスチャで評価する際の性能低下がある。
本稿では,AHIQ(Hybrid Image Quality Assessment Network)を提案する。
論文 参考訳(メタデータ) (2022-04-22T03:59:18Z) - Core Risk Minimization using Salient ImageNet [53.616101711801484]
私たちは、1000のImagenetクラスのコアとスプリアス機能をローカライズする100万人以上のソフトマスクを備えたSalient Imagenetデータセットを紹介します。
このデータセットを用いて、まず、いくつかのImagenet事前訓練されたモデル(総計42件)の素早い特徴に対する依存度を評価する。
次に、コアリスク最小化(CoRM)と呼ばれる新しい学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-03-28T01:53:34Z) - Corrupted Image Modeling for Self-Supervised Visual Pre-Training [103.99311611776697]
自己教師型視覚前訓練のためのCIM(Corrupted Image Modeling)を提案する。
CIMは、小さなトレーニング可能なBEiTを備えた補助発電機を使用して、人工マスクトークンを使用する代わりに入力イメージを破損させる。
事前トレーニング後、エンハンサーは下流タスク用の高容量ビジュアルエンコーダとして使用できる。
論文 参考訳(メタデータ) (2022-02-07T17:59:04Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - MUSIQ: Multi-scale Image Quality Transformer [22.908901641767688]
現在のIQA法は畳み込みニューラルネットワーク(CNN)に基づいている
マルチスケール画像品質変換器(MUSIQ)を設計し,サイズやアスペクト比の異なるネイティブ解像度画像を処理する。
提案手法は,マルチスケールの画像表現により,様々な粒度で画像品質を捉えることができる。
論文 参考訳(メタデータ) (2021-08-12T23:36:22Z) - Multiscale Deep Equilibrium Models [162.15362280927476]
マルチスケールディープ均衡モデル(MDEQ)を新たに提案する。
MDEQは、複数の特徴分解の平衡点を直接解き、同時に伝播する。
本稿では,Cityscapesデータセットの高解像度画像に対するイメージネット分類とセマンティックセグメンテーションの2つの大規模ビジョンタスクにおけるこのアプローチの有効性について述べる。
論文 参考訳(メタデータ) (2020-06-15T18:07:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。