論文の概要: FUTransUNet-GradCAM: A Hybrid Transformer-U-Net with Self-Attention and Explainable Visualizations for Foot Ulcer Segmentation
- arxiv url: http://arxiv.org/abs/2508.03758v1
- Date: Mon, 04 Aug 2025 11:05:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.372501
- Title: FUTransUNet-GradCAM: A Hybrid Transformer-U-Net with Self-Attention and Explainable Visualizations for Foot Ulcer Segmentation
- Title(参考訳): FUTransUNet-GradCAM:足の潰瘍分節に対する自己注意と説明可能な可視化を備えたハイブリッドトランスフォーマーU-U-ネット
- Authors: Akwasi Asare, Mary Sagoe, Justice Williams Asare,
- Abstract要約: 糖尿病性足潰瘍 (DFUs) の自動分節は, 臨床診断, 治療計画, 縦断的創傷モニタリングにおいて重要な役割を担っている。
従来の畳み込みニューラルネットワーク(CNN)は、強力なローカライゼーション機能を提供するが、長距離空間依存のモデル化に苦慮している。
視覚変換器(ViT)のグローバルアテンション機構をU-Netフレームワークに統合するハイブリッドアーキテクチャであるFUTransUNetを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated segmentation of diabetic foot ulcers (DFUs) plays a critical role in clinical diagnosis, therapeutic planning, and longitudinal wound monitoring. However, this task remains challenging due to the heterogeneous appearance, irregular morphology, and complex backgrounds associated with ulcer regions in clinical photographs. Traditional convolutional neural networks (CNNs), such as U-Net, provide strong localization capabilities but struggle to model long-range spatial dependencies due to their inherently limited receptive fields. To address this, we propose FUTransUNet, a hybrid architecture that integrates the global attention mechanism of Vision Transformers (ViTs) into the U-Net framework. This combination allows the model to extract global contextual features while maintaining fine-grained spatial resolution through skip connections and an effective decoding pathway. We trained and validated FUTransUNet on the public Foot Ulcer Segmentation Challenge (FUSeg) dataset. FUTransUNet achieved a training Dice Coefficient of 0.8679, an IoU of 0.7672, and a training loss of 0.0053. On the validation set, the model achieved a Dice Coefficient of 0.8751, an IoU of 0.7780, and a validation loss of 0.009045. To ensure clinical transparency, we employed Grad-CAM visualizations, which highlighted model focus areas during prediction. These quantitative outcomes clearly demonstrate that our hybrid approach successfully integrates global and local feature extraction paradigms, thereby offering a highly robust, accurate, explainable, and interpretable solution and clinically translatable solution for automated foot ulcer analysis. The approach offers a reliable, high-fidelity solution for DFU segmentation, with implications for improving real-world wound assessment and patient care.
- Abstract(参考訳): 糖尿病性足潰瘍 (DFUs) の自動分節は, 臨床診断, 治療計画, 縦断的創傷モニタリングにおいて重要な役割を担っている。
しかし, 臨床写真では, 不均一な外観, 不規則な形態, 潰瘍部位に関連する複雑な背景が原因で, この課題は依然として困難なままである。
U-Netのような従来の畳み込みニューラルネットワーク(CNN)は、強力なローカライゼーション機能を提供するが、本質的に制限された受容野のため、長距離空間依存のモデル化に苦慮している。
そこで我々は,視覚変換器(ViT)のグローバルアテンション機構をU-Netフレームワークに統合したハイブリッドアーキテクチャFUTransUNetを提案する。
この組み合わせにより、モデルは、スキップ接続と効果的な復号経路を通じて、細粒度空間分解能を維持しながら、グローバルな文脈特徴を抽出できる。
FUTransUNetをFUSegデータセット上でトレーニングし,検証した。
FUTransUNetはディス係数0.8679、IoU0.7672、トレーニング損失0.0053を達成した。
検証セットでは、Dice係数が0.8751、IoUが0.7780、バリデーション損失が0.009045に達した。
臨床透明性を確保するためにGrad-CAMビジュアライゼーションを採用し,予測中のモデル焦点領域を強調した。
これらの定量的結果は,我々のハイブリッドアプローチがグローバルな特徴抽出パラダイムとローカルな特徴抽出パラダイムをうまく統合し,高度に堅牢で,正確で,説明可能な,解釈可能なソリューションと,自動足底潰瘍解析のための臨床翻訳可能なソリューションを提供することを示す。
このアプローチは、DFUセグメンテーションのための信頼性の高い高忠実なソリューションを提供し、現実世界の創傷評価と患者のケアを改善することに役立つ。
関連論文リスト
- HANS-Net: Hyperbolic Convolution and Adaptive Temporal Attention for Accurate and Generalizable Liver and Tumor Segmentation in CT Imaging [1.3149714289117207]
腹部CT像における肝・腫瘍の正確なセグメンテーションは確実な診断と治療計画に重要である。
ニューラル表現とシナプティック・プラスティック・ネットワーク(HANS-Net)を用いたハイパーボリック・コンボリューションの導入
HANS-Netは、階層的幾何表現のための双曲的畳み込み、マルチスケールテクスチャ学習のためのウェーブレットインスパイアされた分解モジュール、暗黙の神経表現分岐を組み合わせた。
論文 参考訳(メタデータ) (2025-07-15T13:56:37Z) - Advancing Chronic Tuberculosis Diagnostics Using Vision-Language Models: A Multi modal Framework for Precision Analysis [0.0]
本研究では,自動結核検診(TB)を強化するビジョン・ランゲージ・モデル(VLM)を提案する。
胸部X線画像と臨床データを統合することにより,手動による解釈の課題に対処する。
このモデルでは、重要な慢性TBの病態を検出するための高精度(44%)とリコール(44%)が示された。
論文 参考訳(メタデータ) (2025-03-17T13:49:29Z) - A Cascaded Dilated Convolution Approach for Mpox Lesion Classification [0.0]
Mpoxウイルスは、他の皮膚疾患と視覚的に類似しているため、重要な診断上の課題を呈する。
深層学習に基づく皮膚病変分類のアプローチは、有望な代替手段を提供する。
本稿では,これらの課題に対処するためのCascaded Atrous Group Attentionフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-12-13T12:47:30Z) - CoTCoNet: An Optimized Coupled Transformer-Convolutional Network with an Adaptive Graph Reconstruction for Leukemia Detection [0.3573481101204926]
白血病の分類のためのCoTCoNet(Coupled Transformer Convolutional Network)フレームワークを提案する。
我々のフレームワークは、包括的グローバル特徴とスケーラブルな空間パターンを捉え、複雑で大規模な血液学的特徴の同定を可能にする。
それぞれ0.9894と0.9893のF1スコアレートを達成している。
論文 参考訳(メタデータ) (2024-10-11T13:31:28Z) - Hybrid Deep Learning-Based for Enhanced Occlusion Segmentation in PICU Patient Monitoring [0.0]
本稿では,PICU内の遠隔監視アプリケーションで発生する共通閉塞を分割するハイブリッド手法を提案する。
私たちのアプローチは、限られたトレーニングデータシナリオのためのディープラーニングパイプラインの作成に重点を置いています。
提案したフレームワークは、92.5%の精度、93.8%のリコール、90.3%の精度、92.0%のF1スコアで全体的な分類性能が得られる。
論文 参考訳(メタデータ) (2024-07-18T09:37:55Z) - Uncertainty-guided annotation enhances segmentation with the human-in-the-loop [5.669636524329784]
不確実性ガイド。
(UGA)は、AIがその不確実性を臨床医に伝えることを可能にする、ループ内の人間的アプローチを導入している。
UGAはピクセルレベルでの不確実性を定量化することでこの相互作用を緩和し、それによってモデルの限界を明らかにする。
より広範なアプリケーションとコミュニティへの貢献を促進するために、私たちはコードをアクセス可能にしました。
論文 参考訳(メタデータ) (2024-02-16T16:41:15Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Boundary Guided Semantic Learning for Real-time COVID-19 Lung Infection
Segmentation System [69.40329819373954]
新型コロナウイルス(COVID-19)は、世界中の医療システムに悪影響を及ぼし続けている。
現段階では、新型コロナウイルスの診断と治療には、CT画像から肺感染症領域を自動的に分離することが不可欠である。
本稿では,境界案内型セマンティックラーニングネットワーク(BSNet)を提案する。
論文 参考訳(メタデータ) (2022-09-07T05:01:38Z) - Fuzzy Attention Neural Network to Tackle Discontinuity in Airway
Segmentation [67.19443246236048]
気道セグメンテーションは肺疾患の検査、診断、予後に重要である。
いくつかの小型の気道支線(気管支や終端など)は自動セグメンテーションの難しさを著しく増す。
本稿では,新しいファジィアテンションニューラルネットワークと包括的損失関数を備える,気道セグメンテーションの効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-09-05T16:38:13Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Inf-Net: Automatic COVID-19 Lung Infection Segmentation from CT Images [152.34988415258988]
CT画像からの肺感染症の自動検出は、新型コロナウイルスに対処するための従来の医療戦略を強化する大きな可能性を秘めている。
CTスライスから感染領域を分割することは、高い感染特性の変化、感染と正常な組織の間の低強度のコントラストなど、いくつかの課題に直面している。
これらの課題に対処するため, 胸部CTスライスから感染部位を自動的に同定する, 新型のCOVID-19 Deep Lung infection Network (Inf-Net) が提案されている。
論文 参考訳(メタデータ) (2020-04-22T07:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。