論文の概要: Acquire Precise and Comparable Fundus Image Quality Score: FTHNet and FQS Dataset
- arxiv url: http://arxiv.org/abs/2411.12273v1
- Date: Tue, 19 Nov 2024 06:52:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:35:58.354007
- Title: Acquire Precise and Comparable Fundus Image Quality Score: FTHNet and FQS Dataset
- Title(参考訳): FTHNetとFQSデータセット
- Authors: Zheng Gong, Zhuo Deng, Run Gan, Zhiyuan Niu, Lu Chen, Canfeng Huang, Jia Liang, Weihao Gao, Fang Li, Shaochong Zhang, Lan Ma,
- Abstract要約: 基礎画像品質評価(FIQA)におけるデータセットとアルゴリズムの限界に対処する。
従来のFIQA処理の分類結果よりも回帰結果を用いてこれらのタスクを解くために,FIQAトランスフォーマーベースハイパーネットワーク(FTHNet)を提案する。
FTHNetは、PLCCが0.9423、SRCCが0.9488で、基礎画像の品質スコアを与えることができ、パラメータが少なく、複雑さも少ない他の手法よりも大幅に優れている。
- 参考スコア(独自算出の注目度): 17.550973358839574
- License:
- Abstract: The retinal fundus images are utilized extensively in the diagnosis, and their quality can directly affect the diagnosis results. However, due to the insufficient dataset and algorithm application, current fundus image quality assessment (FIQA) methods are not powerful enough to meet ophthalmologists` demands. In this paper, we address the limitations of datasets and algorithms in FIQA. First, we establish a new FIQA dataset, Fundus Quality Score(FQS), which includes 2246 fundus images with two labels: a continuous Mean Opinion Score varying from 0 to 100 and a three-level quality label. Then, we propose a FIQA Transformer-based Hypernetwork (FTHNet) to solve these tasks with regression results rather than classification results in conventional FIQA works. The FTHNet is optimized for the FIQA tasks with extensive experiments. Results on our FQS dataset show that the FTHNet can give quality scores for fundus images with PLCC of 0.9423 and SRCC of 0.9488, significantly outperforming other methods with fewer parameters and less computation complexity.We successfully build a dataset and model addressing the problems of current FIQA methods. Furthermore, the model deployment experiments demonstrate its potential in automatic medical image quality control. All experiments are carried out with 10-fold cross-validation to ensure the significance of the results.
- Abstract(参考訳): 網膜基底画像は、診断において広範囲に利用され、その品質は診断結果に直接影響を及ぼす。
しかし、データセットやアルゴリズムの応用が不十分なため、現在の眼科医の要求を満たすには、現在の眼底画像品質評価(FIQA)手法は不十分である。
本稿では,FIQAにおけるデータセットとアルゴリズムの限界に対処する。
まず、FIQAデータセットであるFundus Quality Score(FQS)を新たに構築し、2つのラベルを持つ2246のベースイメージを含む。
そこで本研究では,従来のFIQA処理の分類結果よりも,回帰結果を用いてこれらのタスクを解くためのFIQA Transformer-based Hypernetwork (FTHNet)を提案する。
FTHNetはFIQAタスクに最適化されており、広範な実験が行われている。
FQSデータセットの結果から、FTHNetはPLCC 0.9423 と SRCC 0.9488 の基底画像の品質スコアを与えることができ、パラメータが少なく計算の複雑さも少ない他の手法よりも大幅に優れており、現在のFIQA手法の問題に対処するデータセットとモデルの構築に成功している。
さらに, モデル展開実験により, 自動医用画像品質管理の可能性を示した。
すべての実験は10倍のクロスバリデーションで行われ、結果の意義が保証される。
関連論文リスト
- DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [54.139923409101044]
野生のブラインド画像品質評価(IQA)は重大な課題を呈している。
大規模なトレーニングデータの収集が困難であることを考えると、厳密な一般化モデルを開発するために限られたデータを活用することは、未解決の問題である。
事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルの堅牢な画像認識能力により,新しいIQA法,拡散先行に基づくIQAを提案する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - Descriptive Image Quality Assessment in the Wild [25.503311093471076]
VLMに基づく画像品質評価(IQA)は、画像品質を言語的に記述し、人間の表現に合わせることを目指している。
野生における画像品質評価(DepictQA-Wild)について紹介する。
本手法は,評価タスクと比較タスク,簡潔かつ詳細な応答,完全参照,非参照シナリオを含む多機能IQAタスクパラダイムを含む。
論文 参考訳(メタデータ) (2024-05-29T07:49:15Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - Feature Denoising Diffusion Model for Blind Image Quality Assessment [58.5808754919597]
Blind Image Quality Assessment (BIQA) は、基準ベンチマークを使わずに、人間の知覚に合わせて画質を評価することを目的としている。
ディープラーニング BIQA の手法は、一般的に、伝達学習のための高レベルのタスクの特徴の使用に依存する。
本稿では,BIQAにおける特徴認知のための拡散モデルについて検討する。
論文 参考訳(メタデータ) (2024-01-22T13:38:24Z) - Early Diagnosis of Retinal Blood Vessel Damage via Deep Learning-Powered
Collective Intelligence Models [0.3670422696827525]
Swarmアルゴリズムのパワーは、タスクに最適なモデルを提供するために、畳み込み層、プーリング層、正規化層の様々な組み合わせを探すために使用される。
最高のTDCNモデルは90.3%、AUC ROCは0.956、Cohenスコアは0.967である。
論文 参考訳(メタデータ) (2022-10-17T21:38:38Z) - MSTRIQ: No Reference Image Quality Assessment Based on Swin Transformer
with Multi-Stage Fusion [8.338999282303755]
本稿では,Swin Transformerに基づく新しいアルゴリズムを提案する。
ローカル機能とグローバル機能の両方から情報を集約して、品質をより正確に予測する。
NTIRE 2022 Perceptual Image Quality Assessment Challengeのノーレファレンストラックで2位。
論文 参考訳(メタデータ) (2022-05-20T11:34:35Z) - FundusQ-Net: a Regression Quality Assessment Deep Learning Algorithm for
Fundus Images Quality Grading [0.0]
緑内障、糖尿病網膜症、加齢に伴う黄斑変性は、視力障害や視覚障害の主な原因である。
このプロセスの鍵となるステップは、人間のオペレータや機械学習モデルによってこれらが解釈可能であることを確認するために、ベース画像の品質を自動的に見積もることである。
本稿では,この新たな尺度に対して,新たな基礎画像品質尺度とディープラーニング(DL)モデルを提案する。
論文 参考訳(メタデータ) (2022-05-02T21:01:34Z) - Attentions Help CNNs See Better: Attention-based Hybrid Image Quality
Assessment Network [20.835800149919145]
画像品質評価(IQA)アルゴリズムは、画像品質に対する人間の認識を定量化することを目的としている。
GAN(Generative Adversarial Network)によって生成された歪み画像を、一見現実的なテクスチャで評価する際の性能低下がある。
本稿では,AHIQ(Hybrid Image Quality Assessment Network)を提案する。
論文 参考訳(メタデータ) (2022-04-22T03:59:18Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。