論文の概要: HOG-CNN: Integrating Histogram of Oriented Gradients with Convolutional Neural Networks for Retinal Image Classification
- arxiv url: http://arxiv.org/abs/2507.22274v1
- Date: Tue, 29 Jul 2025 22:54:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:17.898378
- Title: HOG-CNN: Integrating Histogram of Oriented Gradients with Convolutional Neural Networks for Retinal Image Classification
- Title(参考訳): HOG-CNN:網膜画像分類のための配向勾配のヒストグラムと畳み込みニューラルネットワークの統合
- Authors: Faisal Ahmed,
- Abstract要約: 本稿では,HOG-CNNと呼ばれるハイブリッド特徴抽出モデルに基づく,自動的かつ解釈可能な臨床診断支援フレームワークを提案する。
私たちの重要な貢献は、手作りのHistogram of Oriented Gradients(HOG)機能とDeep Convolutional Neural Network(CNN)表現の統合です。
本モデルでは,2次DR分類では98.5%,2次DR分類では99.2AUC,5次DR分類では94.2AUCが得られた。
- 参考スコア(独自算出の注目度): 1.5939351525664014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The analysis of fundus images is critical for the early detection and diagnosis of retinal diseases such as Diabetic Retinopathy (DR), Glaucoma, and Age-related Macular Degeneration (AMD). Traditional diagnostic workflows, however, often depend on manual interpretation and are both time- and resource-intensive. To address these limitations, we propose an automated and interpretable clinical decision support framework based on a hybrid feature extraction model called HOG-CNN. Our key contribution lies in the integration of handcrafted Histogram of Oriented Gradients (HOG) features with deep convolutional neural network (CNN) representations. This fusion enables our model to capture both local texture patterns and high-level semantic features from retinal fundus images. We evaluated our model on three public benchmark datasets: APTOS 2019 (for binary and multiclass DR classification), ORIGA (for Glaucoma detection), and IC-AMD (for AMD diagnosis); HOG-CNN demonstrates consistently high performance. It achieves 98.5\% accuracy and 99.2 AUC for binary DR classification, and 94.2 AUC for five-class DR classification. On the IC-AMD dataset, it attains 92.8\% accuracy, 94.8\% precision, and 94.5 AUC, outperforming several state-of-the-art models. For Glaucoma detection on ORIGA, our model achieves 83.9\% accuracy and 87.2 AUC, showing competitive performance despite dataset limitations. We show, through comprehensive appendix studies, the complementary strength of combining HOG and CNN features. The model's lightweight and interpretable design makes it particularly suitable for deployment in resource-constrained clinical environments. These results position HOG-CNN as a robust and scalable tool for automated retinal disease screening.
- Abstract(参考訳): 眼底画像の解析は、糖尿病網膜症(DR)、緑内障、加齢関連黄斑変性(AMD)などの網膜疾患の早期発見と診断に重要である。
しかし、従来の診断ワークフローは、しばしば手動による解釈に依存し、時間とリソースの両方に集中している。
これらの制約に対処するために,HOG-CNNと呼ばれるハイブリッド特徴抽出モデルに基づく,自動的かつ解釈可能な臨床診断支援フレームワークを提案する。
私たちの重要な貢献は、手作りのHistogram of Oriented Gradients(HOG)機能とDeep Convolutional Neural Network(CNN)表現の統合です。
この融合により、網膜基底画像から局所的なテクスチャパターンと高レベルのセマンティック特徴の両方を捉えることができる。
APTOS 2019 (バイナリおよびマルチクラスDR分類用), ORIGA (緑内障検出用), IC-AMD (AMD診断用), HOG-CNN は一貫して高い性能を示す。
2値のDR分類では98.5\%の精度と99.2のAUC、5値のDR分類では94.2のAUCを達成している。
IC-AMDデータセットでは、92.8\%の精度、94.8\%の精度、94.5のAUCが達成され、いくつかの最先端モデルを上回っている。
ORIGAにおける緑内障検出では,データセットの制限にもかかわらず,83.9\%の精度と87.2のAUCを達成した。
総括的虫垂研究により,HOGとCNNの相補的強度が示された。
このモデルの軽量で解釈可能な設計は、特に資源に制約された臨床環境への展開に適している。
これらの結果から,HOG-CNNは網膜疾患検診の堅牢でスケーラブルなツールとして位置づけられた。
関連論文リスト
- HistoART: Histopathology Artifact Detection and Reporting Tool [37.31105955164019]
ワイルスライドイメージング(WSI)は、組織標本の詳細な高分解能検査のために広く用いられている。
WSIは、スライドの準備とスキャンの間に導入されたアーティファクトに弱いままです。
本稿では,WSIに対する3つのロバストなアーティファクト検出手法を提案し,比較する。
論文 参考訳(メタデータ) (2025-06-23T17:22:19Z) - FundusGAN: A Hierarchical Feature-Aware Generative Framework for High-Fidelity Fundus Image Generation [35.46876389599076]
FundusGANは、高忠実度ファンドス画像合成用に特別に設計された新しい階層的特徴認識生成フレームワークである。
我々は、FundusGANが複数のメトリクスにわたって最先端のメソッドを一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2025-03-22T18:08:07Z) - Ocular Disease Classification Using CNN with Deep Convolutional Generative Adversarial Network [0.0]
我々は,CNNに基づく分類モデルの訓練のためのデータセットを合成するために,GANに基づくデータ生成手法を提案する。
モデル分類の精度を元の眼画像と比較すると、近視の精度は78.6%、緑内障の88.6%、白内障の84.6%、全体分類の精度は84.6%である。
論文 参考訳(メタデータ) (2025-02-14T17:47:18Z) - KaLDeX: Kalman Filter based Linear Deformable Cross Attention for Retina Vessel Segmentation [46.57880203321858]
カルマンフィルタを用いた線形変形型クロスアテンション(LDCA)モジュールを用いた血管セグメンテーションのための新しいネットワーク(KaLDeX)を提案する。
我々のアプローチは、カルマンフィルタ(KF)ベースの線形変形可能な畳み込み(LD)とクロスアテンション(CA)モジュールの2つの重要なコンポーネントに基づいている。
提案手法は,網膜基底画像データセット(DRIVE,CHASE_BD1,STARE)とOCTA-500データセットの3mm,6mmを用いて評価した。
論文 参考訳(メタデータ) (2024-10-28T16:00:42Z) - Guided Reconstruction with Conditioned Diffusion Models for Unsupervised Anomaly Detection in Brain MRIs [35.46541584018842]
Unsupervised Anomaly Detection (UAD) は、正常なトレーニング分布から異常を外れ値として識別することを目的としている。
生成モデルは、与えられた入力画像に対する健康な脳解剖の再構築を学ぶために使用される。
本稿では,入力画像の潜在表現から得られた付加情報を用いて拡散モデルの復調過程を条件付けることを提案する。
論文 参考訳(メタデータ) (2023-12-07T11:03:42Z) - Virchow: A Million-Slide Digital Pathology Foundation Model [34.38679208931425]
本稿では,コンピュータ病理学の基礎モデルであるVirchowを紹介する。
Virchowは、150万のヘマトキシリンとエオシン染色されたスライドイメージに基づいて、632万のパラメータをトレーニングしたビジョントランスフォーマーモデルである。
論文 参考訳(メタデータ) (2023-09-14T15:09:35Z) - AMDNet23: A combined deep Contour-based Convolutional Neural Network and
Long Short Term Memory system to diagnose Age-related Macular Degeneration [0.0]
本研究は、畳み込み(CNN)と短期記憶(LSTM)からなるニューラルネットワークを組み合わせた深層学習システムAMDNet23を用いて、眼底部から老化性黄斑変性(AMD)疾患を自動的に検出する。
提案されたハイブリッド深度AMDNet23モデルは、AMD眼疾患の検出を実証し、実験結果は精度96.50%、特異度99.32%、感度96.5%、F1スコア96.49.0%を達成した。
論文 参考訳(メタデータ) (2023-08-30T07:48:32Z) - Early Diagnosis of Retinal Blood Vessel Damage via Deep Learning-Powered
Collective Intelligence Models [0.3670422696827525]
Swarmアルゴリズムのパワーは、タスクに最適なモデルを提供するために、畳み込み層、プーリング層、正規化層の様々な組み合わせを探すために使用される。
最高のTDCNモデルは90.3%、AUC ROCは0.956、Cohenスコアは0.967である。
論文 参考訳(メタデータ) (2022-10-17T21:38:38Z) - Intrapapillary Capillary Loop Classification in Magnification Endoscopy:
Open Dataset and Baseline Methodology [8.334256673330879]
我々は静止画やビデオフレームを正常または異常と分類できるコンピュータ支援検出システムを構築した。
114の患者ビデオから抽出された68Kバイナリラベルフレームを含む新しいベンチマークデータセットを紹介します。
提案手法は, 臨床医12名による94.7 %に対して, 平均91.7 %の精度を示した。
論文 参考訳(メタデータ) (2021-02-19T14:55:21Z) - Automated Prostate Cancer Diagnosis Based on Gleason Grading Using
Convolutional Neural Network [12.161266795282915]
そこで本研究では,前立腺癌(PCa)の完全分類のための畳み込みニューラルネットワーク(CNN)を用いた自動分類法を提案する。
Patch-Based Image Reconstruction (PBIR) と呼ばれるデータ拡張手法が提案され,WSIの高分解能化と多様性の向上が図られた。
対象データセットへの事前学習モデルの適応性を高めるために,分布補正モジュールを開発した。
論文 参考訳(メタデータ) (2020-11-29T06:42:08Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。