論文の概要: ThyroidEffi 1.0: A Cost-Effective System for High-Performance Multi-Class Thyroid Carcinoma Classification
- arxiv url: http://arxiv.org/abs/2504.14139v2
- Date: Sun, 27 Apr 2025 11:38:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.679998
- Title: ThyroidEffi 1.0: A Cost-Effective System for High-Performance Multi-Class Thyroid Carcinoma Classification
- Title(参考訳): ThyroidEffi 1.0: 高性能多型甲状腺癌分類のための費用効果システム
- Authors: Hai Pham-Ngoc, De Nguyen-Van, Dung Vu-Tien, Phuong Le-Hong,
- Abstract要約: 甲状腺FNAB画像分類のための深層学習システムを開発した。
Benign, Indeterminate/Suspicious, and Malignantの3つの主要なカテゴリは、生後治療を直接指導するものだ。
システムは1000ケースを30秒で処理し、広くアクセス可能なハードウェアの実現可能性を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: Automated classification of thyroid Fine Needle Aspiration Biopsy (FNAB) images faces challenges in limited data, inter-observer variability, and computational cost. Efficient, interpretable models are crucial for clinical support. Objective: To develop and externally validate a deep learning system for multi-class thyroid FNAB image classification into three key categories directly guiding post-biopsy treatment in Vietnam: Benign (Bethesda II), Indeterminate/Suspicious (BI, III, IV, V), and Malignant (BVI), achieving high diagnostic accuracy with low computational overhead. Methods: Our pipeline features: (1) YOLOv10 cell cluster detection for informative sub-region extraction/noise reduction; (2) curriculum learning sequencing localized crops to full images for multi-scale capture; (3) adaptive lightweight EfficientNetB0 (4M parameters) balancing performance/efficiency; and (4) a Transformer-inspired module for multi-scale/multi-region analysis. External validation used 1,015 independent FNAB images. Results: ThyroidEffi Basic achieved macro F1 of 89.19% and AUCs of 0.98 (Benign), 0.95 (Indeterminate/Suspicious), 0.96 (Malignant) on the internal test set. External validation yielded AUCs of 0.9495 (Benign), 0.7436 (Indeterminate/Suspicious), 0.8396 (Malignant). ThyroidEffi Premium improved macro F1 to 89.77%. Grad-CAM highlighted key diagnostic regions, confirming interpretability. The system processed 1000 cases in 30 seconds, demonstrating feasibility on widely accessible hardware. Conclusions: This work demonstrates that high-accuracy, interpretable thyroid FNAB image classification is achievable with minimal computational demands.
- Abstract(参考訳): 背景: 甲状腺細針吸引生検(FNAB)画像の自動分類は, 限られたデータ, サーバ間変動性, 計算コストの課題に直面している。
効果的な解釈可能なモデルが臨床支援に不可欠である。
目的:マルチクラス甲状腺FNAB画像分類のための深層学習システムを,ベトナムのバイオシー後治療を直接指導するベニグニ(Bethesda II),Indeterminate/Suspicious(BI,III,IV,V),Morignant(BVI)の3つの重要なカテゴリに分けて開発・検証し,計算オーバーヘッドを低く抑える。
方法:(1)情報化サブリージョン抽出/ノイズ除去のためのYOLOv10セルクラスタ検出,(2)局所化作物をマルチスケールキャプチャのためのフルイメージにシークエンシングするカリキュラム,(3)適応型軽量NetB0(4Mパラメータ)と性能/効率のバランスをとること,(4)マルチスケール/マルチリージョン分析のためのTransformer-inspireedモジュール。
外部検証は1015個の独立FNAB画像を使用した。
結果: ThyroidEffi Basic は 89.19% のマクロ F1 を、AUC は 0.98 (Benign), 0.95 (Indeterminate/Suspicious), 0.96 (Malignant) を内部テストセットで達成した。
外部検証の結果、AUCは0.9495 (Benign), 0.7436 (Indeterminate/Suspicious), 0.8396 (Malignant) となった。
ThyroidEffi PremiumはマクロF1を89.77%改善した。
Grad-CAMは重要な診断領域を強調し、解釈可能性を確認した。
システムは1000ケースを30秒で処理し、広くアクセス可能なハードウェアの実現可能性を示した。
結論: 本研究は, 甲状腺FNAB画像分類の精度が, 最小限の計算要求で達成可能であることを示す。
関連論文リスト
- Is an Ultra Large Natural Image-Based Foundation Model Superior to a Retina-Specific Model for Detecting Ocular and Systemic Diseases? [15.146396276161937]
RETFoundおよびDINOv2モデルは眼疾患検出および全身性疾患予知タスクのために評価された。
RETFoundは、心不全、梗塞、虚血性脳梗塞の予測において、すべてのDINOv2モデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2025-02-10T09:31:39Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Thyroidiomics: An Automated Pipeline for Segmentation and Classification of Thyroid Pathologies from Scintigraphy Images [0.23960026858846614]
本研究の目的は,甲状腺シンチグラフィー画像を用いた甲状腺疾患分類を向上する自動パイプラインを開発することである。
2,643人の甲状腺シンチグラフィー画像を収集し,DG(diffuse goiter),MNG(multinodal goiter),甲状腺炎(TH)に分類した。
パイプラインは、さまざまなクラスにわたるいくつかの分類指標で、医師のセグメンテーションに匹敵するパフォーマンスを示した。
論文 参考訳(メタデータ) (2024-07-14T21:29:28Z) - CIMIL-CRC: a clinically-informed multiple instance learning framework for patient-level colorectal cancer molecular subtypes classification from H\&E stained images [42.771819949806655]
CIMIL-CRCは、事前学習した特徴抽出モデルと主成分分析(PCA)を効率よく組み合わせ、全てのパッチから情報を集約することで、MSI/MSS MIL問題を解決するフレームワークである。
我々は,TCGA-CRC-DXコホートを用いたモデル開発のための5倍のクロスバリデーション実験装置を用いて,曲線下平均面積(AUC)を用いてCIMIL-CRC法の評価を行った。
論文 参考訳(メタデータ) (2024-01-29T12:56:11Z) - Developing a Machine Learning-Based Clinical Decision Support Tool for
Uterine Tumor Imaging [0.0]
子宮平滑筋肉腫 (LMS) は稀ながら積極的な悪性腫瘍である。
遺伝性平滑筋腫(LM)とLMSを区別することは困難である。
UT症例110例のT2強調画像115例に5種類の腫瘍を認めた。
nnU-Netを適用し,25,45,65,85のトレーニングセット画像をランダムに生成することにより,トレーニングセットサイズがパフォーマンスに与える影響を検討した。
論文 参考訳(メタデータ) (2023-08-20T21:46:05Z) - Weakly supervised segmentation of intracranial aneurysms using a novel 3D focal modulation UNet [0.5106162890866905]
本稿では,新しい3次元焦点変調UNetであるFocalSegNetを提案する。
UIA検出では偽陽性率は0.21で感度は0.80であった。
論文 参考訳(メタデータ) (2023-08-06T03:28:08Z) - Vision Transformer for Efficient Chest X-ray and Gastrointestinal Image
Classification [2.3293678240472517]
本研究では,多種多様なCNNとトランスフォーマーを用いたデータ拡張手法を提案する。
異なるモダリティから3つの医用画像データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-04-23T04:07:03Z) - Uncertainty-inspired Open Set Learning for Retinal Anomaly
Identification [71.06194656633447]
9つの網膜条件の基底像をトレーニングし,不確実性に着想を得たオープンセット(UIOS)モデルを構築した。
しきい値戦略を持つUIOSモデルはF1スコア99.55%、97.01%、91.91%を達成した。
UIOSは、高い不確実性スコアを正しく予測し、非ターゲットの網膜疾患、低品質の眼底画像、および非基本画像のデータセットを手動でチェックする必要があることを示唆した。
論文 参考訳(メタデータ) (2023-04-08T10:47:41Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Non-invasive Liver Fibrosis Screening on CT Images using Radiomics [0.0]
本研究の目的は,肝のCTで肝線維症を検出するための放射能機械学習モデルの開発と評価である。
肝線維症スクリーニングモデルの開発には,AUCの最高値と組み合わせ,選択された特徴を併用した。
論文 参考訳(メタデータ) (2022-11-25T22:33:22Z) - 3D-Morphomics, Morphological Features on CT scans for lung nodule
malignancy diagnosis [8.728543774561405]
本研究はCTボリュームにおける形態学的特徴(3次元形態学)に基づく病理状態の予測モデルを構築した。
その後、XGBoost教師付き分類器が3次元形態学で訓練され、病理状態を予測する。
肺結節の悪性度と良性度との分類モデルでは, 3D-morphomicsのみを用いて0.964のAUCが得られる。
論文 参考訳(メタデータ) (2022-07-27T23:50:47Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - 3D Structural Analysis of the Optic Nerve Head to Robustly Discriminate
Between Papilledema and Optic Disc Drusen [44.754910718620295]
我々は3次元光コヒーレンストモグラフィー(OCT)スキャンで視神経頭部(ONH)の組織構造を同定する深層学習アルゴリズムを開発した。
1: ODD, 2: papilledema, 3: healthy) の分類を150 OCTボリュームで行うように設計した。
われわれのAIアプローチは,1本のCTスキャンを用いて,パピレデマからODDを正確に識別する。
論文 参考訳(メタデータ) (2021-12-18T17:05:53Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Performance of Dual-Augmented Lagrangian Method and Common Spatial
Patterns applied in classification of Motor-Imagery BCI [68.8204255655161]
運動画像に基づく脳-コンピュータインタフェース(MI-BCI)は、神経リハビリテーションのための画期的な技術になる可能性がある。
使用する脳波信号のノイズの性質のため、信頼性の高いBCIシステムは特徴の最適化と抽出のために特別な手順を必要とする。
論文 参考訳(メタデータ) (2020-10-13T20:50:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。