論文の概要: Robust and Annotation-Free Wound Segmentation on Noisy Real-World Pressure Ulcer Images: Towards Automated DESIGN-R\textsuperscript{\textregistered} Assessment
- arxiv url: http://arxiv.org/abs/2505.23392v1
- Date: Thu, 29 May 2025 12:25:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.848253
- Title: Robust and Annotation-Free Wound Segmentation on Noisy Real-World Pressure Ulcer Images: Towards Automated DESIGN-R\textsuperscript{\textregistered} Assessment
- Title(参考訳): 雑音の多い実世界圧力潰瘍画像におけるロバストおよびアノテーションフリーなワーンドセグメンテーション:DESIGN-R\textsuperscript{\textregistered} 自動評価に向けて
- Authors: Yun-Cheng Tsai,
- Abstract要約: FUSegNetのような既存のモデルは、主に足の潰瘍データセットに基づいて訓練されているが、多くの場合、他の部位への一般化に失敗する。
本稿では,軽量なYOLOv11n検出器と事前学習されたFUSegNetセグメンテーションモデルを組み合わせたアノテーション効率パイプラインを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: Accurate wound segmentation is essential for automated DESIGN-R scoring. However, existing models such as FUSegNet, which are trained primarily on foot ulcer datasets, often fail to generalize to wounds on other body sites. Methods: We propose an annotation-efficient pipeline that combines a lightweight YOLOv11n-based detector with the pre-trained FUSegNet segmentation model. Instead of relying on pixel-level annotations or retraining for new anatomical regions, our method achieves robust performance using only 500 manually labeled bounding boxes. This zero fine-tuning approach effectively bridges the domain gap and enables direct deployment across diverse wound types. This is an advance not previously demonstrated in the wound segmentation literature. Results: Evaluated on three real-world test sets spanning foot, sacral, and trochanter wounds, our YOLO plus FUSegNet pipeline improved mean IoU by 23 percentage points over vanilla FUSegNet and increased end-to-end DESIGN-R size estimation accuracy from 71 percent to 94 percent (see Table 3 for details). Conclusion: Our pipeline generalizes effectively across body sites without task-specific fine-tuning, demonstrating that minimal supervision, with 500 annotated ROIs, is sufficient for scalable, annotation-light wound segmentation. This capability paves the way for real-world DESIGN-R automation, reducing reliance on pixel-wise labeling, streamlining documentation workflows, and supporting objective and consistent wound scoring in clinical practice. We will publicly release the trained detector weights and configuration to promote reproducibility and facilitate downstream deployment.
- Abstract(参考訳): 目的:DESIGN-R自動スコアリングには,正確な創傷セグメンテーションが不可欠である。
しかし、主に足の潰瘍データセットに基づいて訓練されているFUSegNetのような既存のモデルでは、他の部位の傷の一般化に失敗することが多い。
方法: YOLOv11nベースの軽量検出器と事前学習したFUSegNetセグメンテーションモデルを組み合わせたアノテーション効率のよいパイプラインを提案する。
ピクセルレベルのアノテーションや新しい解剖領域の再訓練に頼る代わりに,手動ラベル付き境界ボックスを500個だけ使用して,堅牢な性能を実現する。
このゼロチューニングアプローチは、ドメインギャップを効果的にブリッジし、さまざまな障害タイプを直接デプロイすることを可能にする。
これは、創傷断裂の文献で以前には示されていなかった進歩である。
結果: 足, 仙骨, 転子にまたがる実世界の3つのテストセットを評価すると, 我々のYOLO+FUSegNetパイプラインはバニラFUSegNetよりも23ポイント向上し, エンドツーエンドのDESIGN-Rサイズ推定精度は71%から94%向上した(詳細は表3を参照)。
結論:私たちのパイプラインは,タスク固有の微調整を伴わずに,効果的に全身を一般化し,500の注釈付きROIを持つ最小限の監督が,スケーラブルでアノテーションに光る創傷セグメンテーションに十分であることを示す。
この機能は、現実世界のDESIGN-R自動化の道を切り開き、ピクセルワイドなラベリングへの依存を減らし、ドキュメントワークフローを合理化し、臨床実践における客観的かつ一貫した創傷スコアをサポートする。
我々は、再現性を促進し、下流への展開を促進するために、訓練された検出器の重量と構成を公開します。
関連論文リスト
- PAM-UNet: Shifting Attention on Region of Interest in Medical Images [5.730272874074418]
UNetとその変種は、精度と計算効率のバランスをとるという重要な課題に直面している。
本稿では,UnderlineMobile underlineUNetアーキテクチャに基づく新しいアンダーラインプログレッシブアンダーラインAttentionを提案する。
提案手法は精度と速度の両方を優先し,平均IoU 74.65 とダイススコア82.87 の両バランスを達成した。
論文 参考訳(メタデータ) (2024-05-02T17:33:26Z) - Augmenting Efficient Real-time Surgical Instrument Segmentation in Video with Point Tracking and Segment Anything [9.338136334709818]
手術器具のセグメンテーションを微調整した軽量SAMモデルとオンラインポイントトラッカーを組み合わせた新しいフレームワークを提案する。
関心領域内のスパースポイントが追跡され、SAMをビデオシーケンス全体を通してプロンプトし、時間的一貫性を提供する。
提案手法は,XMemとトランスフォーマーをベースとした完全教師付きセグメンテーション手法に匹敵する有望な性能を実現する。
論文 参考訳(メタデータ) (2024-03-12T18:12:42Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Adversarial Style Augmentation for Domain Generalization [41.72506801753435]
本稿では,より効率的な統計摂動を発生させることにより,より広いスタイル空間を探索する,新しいAdrial Style Augmentation (ASA)手法を提案する。
ASA の応用を容易にするため,プラグイン・アンド・プレイ方式で ASA メソッドをインスタンス化するシンプルなモジュールである AdvStyle を設計した。
本手法は,PACSデータセット上での単一ソース一般化条件下での競合よりも優れていた。
論文 参考訳(メタデータ) (2023-01-30T03:52:16Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - LESS: Label-Efficient Semantic Segmentation for LiDAR Point Clouds [62.49198183539889]
我々は,LiDAR点雲を用いた屋外シーンのためのラベル効率のよいセマンティックセマンティックセマンティクスパイプラインを提案する。
本手法は,半弱教師付き学習を用いて,効率的なラベリング手法を設計する。
提案手法は,100%ラベル付き完全教師付き手法と比較して,さらに競争力が高い。
論文 参考訳(メタデータ) (2022-10-14T19:13:36Z) - Anchor Retouching via Model Interaction for Robust Object Detection in
Aerial Images [15.404024559652534]
本稿では,新しいトレーニングサンプルジェネレータを構築するために,動的拡張アンカー(DEA)ネットワークを提案する。
提案手法は,適度な推論速度とトレーニングの計算オーバーヘッドを伴って,最先端の性能を精度良く達成する。
論文 参考訳(メタデータ) (2021-12-13T14:37:20Z) - Weakly Supervised Vessel Segmentation in X-ray Angiograms by Self-Paced
Learning from Noisy Labels with Suggestive Annotation [12.772031281511023]
自動血管拡張から発生するノイズの多い擬似ラベルから学習する弱教師付きトレーニングフレームワークを提案する。
ラベルノイズに対してトレーニングプロセスを堅牢化するために、典型的なセルフペースト学習方式が使用される。
提案手法は,完全教師付き学習に匹敵する精度を達成できることを示す。
論文 参考訳(メタデータ) (2020-05-27T13:55:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。