論文の概要: Deep Modeling and Interpretation for Bladder Cancer Classification
- arxiv url: http://arxiv.org/abs/2602.09324v1
- Date: Tue, 10 Feb 2026 01:35:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.315889
- Title: Deep Modeling and Interpretation for Bladder Cancer Classification
- Title(参考訳): 膀胱癌分類の深部モデリングと解釈
- Authors: Ahmad Chaddad, Yihang Wu, Xianrui Chen,
- Abstract要約: 視覚変換器(ViT)と畳み込みニューラルネットワーク(CNN)に基づくディープモデルは、自然データセット上で顕著な性能を示した。
本研究では,膀胱癌分類における最新の深層モデルについて検討した。
- 参考スコア(独自算出の注目度): 6.090061468694482
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep models based on vision transformer (ViT) and convolutional neural network (CNN) have demonstrated remarkable performance on natural datasets. However, these models may not be similar in medical imaging, where abnormal regions cover only a small portion of the image. This challenge motivates this study to investigate the latest deep models for bladder cancer classification tasks. We propose the following to evaluate these deep models: 1) standard classification using 13 models (four CNNs and eight transormer-based models), 2) calibration analysis to examine if these models are well calibrated for bladder cancer classification, and 3) we use GradCAM++ to evaluate the interpretability of these models for clinical diagnosis. We simulate $\sim 300$ experiments on a publicly multicenter bladder cancer dataset, and the experimental results demonstrate that the ConvNext series indicate limited generalization ability to classify bladder cancer images (e.g., $\sim 60\%$ accuracy). In addition, ViTs show better calibration effects compared to ConvNext and swin transformer series. We also involve test time augmentation to improve the models interpretability. Finally, no model provides a one-size-fits-all solution for a feasible interpretable model. ConvNext series are suitable for in-distribution samples, while ViT and its variants are suitable for interpreting out-of-distribution samples.
- Abstract(参考訳): 視覚変換器(ViT)と畳み込みニューラルネットワーク(CNN)に基づくディープモデルは、自然データセット上で顕著な性能を示した。
しかし、これらのモデルは、画像のごく一部だけを異常領域が覆っている医療画像では似ていないかもしれない。
この課題は、膀胱癌分類タスクの最新のディープモデルを検討するためにこの研究を動機付けている。
これらの深層モデルを評価するために,以下のことを提案する。
1)13モデル(4つのCNNと8つのトランスオーマーベースモデル)を用いた標準分類。
2) 膀胱癌分類において, これらのモデルが正常に校正されているか, 検査するための校正分析
3) 臨床診断ではGradCAM++を用いてこれらのモデルの解釈可能性を評価する。
The experimental results shows that the ConvNext series shows limited generalization ability to classification of bladder cancer images (例: $\sim 60\%$ accuracy)。
さらに、ViTsはConvNextやSwin Transformerシリーズよりもキャリブレーション効果が優れている。
また、モデルの解釈可能性を改善するためにテスト時間の拡張も行います。
最後に、どのモデルも、可能な解釈可能なモデルに対して、すべて一大のソリューションを提供していません。
ConvNextシリーズは分布内サンプルに適しているが、ViTとその変異体は分布外サンプルを解釈するのに適している。
関連論文リスト
- MeDi: Metadata-Guided Diffusion Models for Mitigating Biases in Tumor Classification [13.350688594462214]
本稿では,このようなメタデータを生成拡散モデルフレームワーク(MeDi)に明示的にモデル化する手法を提案する。
MeDiは、不足しているサブ集団を合成データで対象とする拡張を可能にする。
TCGAの未確認サブポピュレーションに対して,MeDiが高品質な病理像を生成することを実験的に示す。
論文 参考訳(メタデータ) (2025-06-20T16:41:25Z) - An analysis of data variation and bias in image-based dermatological datasets for machine learning classification [2.039829968340841]
臨床皮膚学では、分類モデルはRGB画像のみを入力として、患者の皮膚の悪性病変を検出することができる。
学習に基づくほとんどの手法では、トレーニングにおいて皮膚科のデータセットから取得したデータを用いており、これは金の基準によって大きく検証されている。
本研究の目的は,皮膚内視鏡検査と臨床検査のギャップを評価し,データセットの変動がトレーニングに与える影響を理解することである。
論文 参考訳(メタデータ) (2025-01-15T17:18:46Z) - Fluid: Scaling Autoregressive Text-to-image Generative Models with Continuous Tokens [53.99177152562075]
視覚における自己回帰モデルのスケールアップは、大きな言語モデルほど有益でないことが証明されている。
モデルが離散トークンを使用するか、連続トークンを使用するか、BERTやGPTのようなトランスフォーマーアーキテクチャを用いてランダムまたは固定順序でトークンを生成するか、という2つの重要な要素に焦点を当てる。
その結果,すべてのモデルが検証損失の点で効果的にスケールしているのに対して,評価性能はFID,GenEvalスコア,視覚的品質などによって異なる傾向を呈することがわかった。
論文 参考訳(メタデータ) (2024-10-17T17:59:59Z) - Comparative Performance Analysis of Transformer-Based Pre-Trained Models for Detecting Keratoconus Disease [0.0]
本研究は、変性眼疾患である角膜症(keratoconus)の診断のために、訓練済みの8つのCNNを比較した。
MobileNetV2は角膜と正常な症例を誤分類の少ない場合に最も正確なモデルであった。
論文 参考訳(メタデータ) (2024-08-16T20:15:24Z) - Segmentation of Non-Small Cell Lung Carcinomas: Introducing DRU-Net and Multi-Lens Distortion [0.1935997508026988]
我々は,ヒト非小細胞肺癌の悪性度を規定するセグメンテーションモデル(DRU-Net)を提案している。
我々は提案したモデルを作成するために2つのデータセット(ノルウェーの肺がんバイオバンクとHaukeland大学肺がんコホート)を使用した。
提案した空間拡張法(マルチレンズ歪み)により,ネットワーク性能は3%向上した。
論文 参考訳(メタデータ) (2024-06-20T13:14:00Z) - Diffusion-TTA: Test-time Adaptation of Discriminative Models via
Generative Feedback [97.0874638345205]
生成モデルは、識別モデルのための優れたテストタイムアダプタになり得る。
提案手法であるDiffusion-TTAは,事前学習した判別モデルを,テストセットの各未学習例に適応させる。
拡散-TTAは,様々な大規模事前学習型判別モデルの精度を著しく向上させることを示した。
論文 参考訳(メタデータ) (2023-11-27T18:59:53Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - A Twin Neural Model for Uplift [59.38563723706796]
Upliftは条件付き治療効果モデリングの特定のケースです。
相対リスクのベイズ解釈との関連性を利用して定義した新たな損失関数を提案する。
本提案手法は,シミュレーション設定の最先端と大規模ランダム化実験による実データとの競合性を示す。
論文 参考訳(メタデータ) (2021-05-11T16:02:39Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。