論文の概要: A Novel Hybrid Deep Learning and Chaotic Dynamics Approach for Thyroid Cancer Classification
- arxiv url: http://arxiv.org/abs/2509.23968v1
- Date: Sun, 28 Sep 2025 16:46:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.560931
- Title: A Novel Hybrid Deep Learning and Chaotic Dynamics Approach for Thyroid Cancer Classification
- Title(参考訳): 甲状腺癌分類のためのハイブリッドディープラーニングとカオスダイナミクスアプローチ
- Authors: Nada Bouchekout, Abdelkrim Boukabou, Morad Grimes, Yassine Habchi, Yassine Himeur, Hamzah Ali Alkhazaleh, Shadi Atalla, Wathiq Mansoor,
- Abstract要約: 本稿では,適応畳み込みニューラルネットワーク(CNN)とCohen-Daubechies-Feauveau(CDF9/7)ウェーブレットを結合するインテリジェントな分類法を提案する。
DDTI甲状腺超音波画像(n = 1,638画像,819悪性/819良性)を5倍のクロスバリデーションを用いて評価した。
提案手法は98.17%の精度、98.76%の感度、97.58%の特異性、97.55%のF1スコア、AUCは0.9912である。
- 参考スコア(独自算出の注目度): 3.1331787430863485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Timely and accurate diagnosis is crucial in addressing the global rise in thyroid cancer, ensuring effective treatment strategies and improved patient outcomes. We present an intelligent classification method that couples an Adaptive Convolutional Neural Network (CNN) with Cohen-Daubechies-Feauveau (CDF9/7) wavelets whose detail coefficients are modulated by an n-scroll chaotic system to enrich discriminative features. We evaluate on the public DDTI thyroid ultrasound dataset (n = 1,638 images; 819 malignant / 819 benign) using 5-fold cross-validation, where the proposed method attains 98.17% accuracy, 98.76% sensitivity, 97.58% specificity, 97.55% F1-score, and an AUC of 0.9912. A controlled ablation shows that adding chaotic modulation to CDF9/7 improves accuracy by +8.79 percentage points over a CDF9/7-only CNN (from 89.38% to 98.17%). To objectively position our approach, we trained state-of-the-art backbones on the same data and splits: EfficientNetV2-S (96.58% accuracy; AUC 0.987), Swin-T (96.41%; 0.986), ViT-B/16 (95.72%; 0.983), and ConvNeXt-T (96.94%; 0.987). Our method outperforms the best of these by +1.23 points in accuracy and +0.0042 in AUC, while remaining computationally efficient (28.7 ms per image; 1,125 MB peak VRAM). Robustness is further supported by cross-dataset testing on TCIA (accuracy 95.82%) and transfer to an ISIC skin-lesion subset (n = 28 unique images, augmented to 2,048; accuracy 97.31%). Explainability analyses (Grad-CAM, SHAP, LIME) highlight clinically relevant regions. Altogether, the wavelet-chaos-CNN pipeline delivers state-of-the-art thyroid ultrasound classification with strong generalization and practical runtime characteristics suitable for clinical integration.
- Abstract(参考訳): 甲状腺癌の世界的な増加、効果的な治療戦略の確保、患者の予後の改善には、タイムリーかつ正確な診断が不可欠である。
本稿では,適応畳み込みニューラルネットワーク (CNN) と Cohen-Daubechies-Feauveau (CDF9/7) ウェーブレットを結合した知的分類法を提案する。
DDTI甲状腺超音波画像(n=1,638画像,819悪性/819良性)を5倍のクロスバリデーションを用いて評価し,98.17%の精度,98.76%の感度,97.58%の特異性,97.55%のF1スコア,0.9912のAUCを示した。
CDF9/7にカオス変調を加えると、CDF9/7のみのCNN(89.38%から98.17%)の精度が+8.79ポイント向上する。
このアプローチを客観的に位置決めするために、同じデータに基づいて最先端のバックボーンをトレーニングし、分割した: 効率的なNetV2-S (96.58%精度; AUC 0.987), Swin-T (96.41%; 0.986), ViT-B/16 (95.72%; 0.983), ConvNeXt-T (96.94%; 0.987)。
精度は+1.23点,AUCでは0.0042点,計算効率は28.7ms/画像当たり1,125MBのピークVRAMである。
ロバストネスは、CIAのクロスデータセットテスト(精度95.82%)とISICのスキンレシオンサブセット(n = 28のユニークな画像、2,048;精度97.31%)によってさらに支持されている。
説明可能性分析 (Grad-CAM, SHAP, LIME) は臨床的に関連のある領域を強調した。
さらに、ウェーブレット-カオス-CNNパイプラインは、強力な一般化と臨床統合に適した実用的なランタイム特性を備えた最先端の甲状腺超音波分類を提供する。
関連論文リスト
- CoAtNeXt:An Attention-Enhanced ConvNeXtV2-Transformer Hybrid Model for Gastric Tissue Classification [1.2891210250935148]
CoAtNeXtは胃組織像の分類法として提案された。
96.47%の精度、96.60%の精度、96.47%のリコール、96.45%のF1スコア、99.89%のAUCを達成した。
論文 参考訳(メタデータ) (2025-09-11T08:24:50Z) - A Novel Attention-Augmented Wavelet YOLO System for Real-time Brain Vessel Segmentation on Transcranial Color-coded Doppler [49.03919553747297]
我々は,脳動脈を効率よく捉えることができるAIを利用したリアルタイムCoW自動分割システムを提案する。
Transcranial Color-coded Doppler (TCCD) を用いたAIによる脳血管セグメンテーションの事前研究は行われていない。
提案したAAW-YOLOは, 異方性および対側性CoW容器のセグメンテーションにおいて高い性能を示した。
論文 参考訳(メタデータ) (2025-08-19T14:41:22Z) - A Clinician-Friendly Platform for Ophthalmic Image Analysis Without Technical Barriers [51.45596445363302]
GlobeReadyはクリニックフレンドリーなAIプラットフォームで、再トレーニング、微調整、技術専門知識の必要性なしに、基礎疾患の診断を可能にする。
光コヒーレンス・トモグラフィー(OCT)スキャンを用いて、カラー・ファンドス写真(CPF)を用いた11のファンドス病(93.9-98.5%)と15のファンドス病(87.2-92.7%)の精度を示した。
トレーニングなしのローカル機能拡張を活用することで、GlobeReadyプラットフォームは、センターや人口間のドメインシフトを効果的に軽減する。
論文 参考訳(メタデータ) (2025-04-22T14:17:22Z) - Diabetic Retinopathy Detection Based on Convolutional Neural Networks with SMOTE and CLAHE Techniques Applied to Fundus Images [0.0]
糖尿病網膜症 (DR) は糖尿病患者の眼の合併症の一つである。
本研究の目的は,DRの診断における人工知能(AI)の精度を評価することである。
論文 参考訳(メタデータ) (2025-04-08T05:38:53Z) - Capsule Endoscopy Multi-classification via Gated Attention and Wavelet Transformations [1.5146068448101746]
消化管の異常は患者の健康に大きく影響を与え、タイムリーな診断が必要である。
この研究は、ビデオフレームから消化管の異常を分類するために設計された新しいモデルの開発と評価のプロセスを示す。
Omni次元のGated Attention(OGA)機構とWavelet変換技術をモデルアーキテクチャに統合することで、モデルは最も重要な領域に集中することができた。
このモデルの性能は、VGG16とResNet50の2つのベースモデルに対してベンチマークされ、胃腸の異常範囲を正確に識別し分類する能力の強化が示されている。
論文 参考訳(メタデータ) (2024-10-25T08:01:35Z) - Deep Generative Classification of Blood Cell Morphology [7.494975467007647]
細胞形態を効果的にモデル化する拡散型分類器であるCytoDiffusionを紹介する。
本手法は異常検出における最先端の識別モデルよりも優れている。
直接解釈可能な逆ファクト・ヒートマップの生成によりモデル説明可能性を向上させる。
論文 参考訳(メタデータ) (2024-08-16T19:17:02Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Novel Epileptic Seizure Detection Techniques and their Empirical Analysis [2.3301643766310374]
3次元化アルゴリズム、主成分分析(PCA)、独立成分分析(ICA)、線形判別分析(LDA)を用いる。
提案されたフレームワークはBonnデータセットでテストされる。
シミュレーション結果は、LDAとNBの組み合わせに対して100%の精度を提供する。
論文 参考訳(メタデータ) (2023-02-17T20:58:17Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Dual-Sampling Attention Network for Diagnosis of COVID-19 from Community
Acquired Pneumonia [46.521323145636906]
胸部CT(Central Computed Tomography)において,地域肺炎(CAP)からCOVID-19を自動診断するデュアルサンプリングアテンションネットワークを開発した。
特に,3D畳み込みネットワーク(CNN)を用いた新しいオンラインアテンションモジュールを提案する。
我々のアルゴリズムは、受信機動作特性曲線(AUC)値0.944、精度87.5%、感度86.9%、特異度90.1%、F1スコア82.0%の領域で、COVID-19画像を識別することができる。
論文 参考訳(メタデータ) (2020-05-06T09:56:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。