論文の概要: FracDetNet: Advanced Fracture Detection via Dual-Focus Attention and Multi-scale Calibration in Medical X-ray Imaging
- arxiv url: http://arxiv.org/abs/2509.23416v1
- Date: Sat, 27 Sep 2025 17:15:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.217018
- Title: FracDetNet: Advanced Fracture Detection via Dual-Focus Attention and Multi-scale Calibration in Medical X-ray Imaging
- Title(参考訳): FracDetNet:医療用X線画像におけるデュアルフォーカス注意とマルチスケール校正による高度な破壊検出
- Authors: Yuyang Sun, Cuiming Zou,
- Abstract要約: FracDetNet - Dual-Focus Attention (DFA)とMulti-scale (MC)を統合したフラクチャー検出フレームワーク
DFAは、グローバル・アテンション・メカニズムとローカル・アテンション・メカニズムを組み合わせて、詳細な地域特徴と包括的グローバル・コンテクストを捉えている。
MCは特徴表現を適応的に洗練し、検出性能を向上させる。
- 参考スコア(独自算出の注目度): 3.8707734483628022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, an advanced fracture detection framework, FracDetNet, is proposed to address challenges in medical imaging, as accurate fracture detection is essential for enhancing diagnostic efficiency in clinical practice. Despite recent advancements, existing methods still struggle with detecting subtle and morphologically diverse fractures due to variable imaging angles and suboptimal image quality. To overcome these limitations, FracDetNet integrates Dual-Focus Attention (DFA) and Multi-scale Calibration (MC). Specifically, the DFA module effectively captures detailed local features and comprehensive global context through combined global and local attention mechanisms. Additionally, the MC adaptively refines feature representations to enhance detection performance. Experimental evaluations on the publicly available GRAZPEDWRI-DX dataset demonstrate state-of-the-art performance, with FracDetNet achieving a mAP$_{50-95}$ of 40.0\%, reflecting a \textbf{7.5\%} improvement over the baseline model. Furthermore, the mAP$_{50}$ reaches 63.9\%, representing an increase of \textbf{4.2\%}, with fracture-specific detection accuracy also enhanced by \textbf{2.9\%}.
- Abstract(参考訳): 本稿では, 診断効率を高めるために, 高精度骨折検出が不可欠である医用画像診断の課題に対処するために, 先進的なフラクチャー検出フレームワークであるFracDetNetを提案する。
近年の進歩にもかかわらず、既存の方法では、様々な画像角と最適な画像品質による微妙で形態的に多様な骨折の検出に苦慮している。
これらの制限を克服するため、FracDetNetはDFA(Dual-Focus Attention)とMC(Multi-scale Calibration)を統合している。
具体的には、DFAモジュールは、グローバル・アテンション・メカニズムとローカル・アテンション・メカニズムを組み合わせて、詳細なローカル特徴と包括的グローバル・コンテクストを効果的にキャプチャする。
さらに、MCは特徴表現を適応的に洗練し、検出性能を向上させる。
FracDetNetはmAP$_{50-95}$ 40.0\%を達成し、ベースラインモデルに対する textbf{7.5\% の改善を反映している。
さらに、mAP$_{50}$ は 63.9\% に達し、これは \textbf{4.2\%} の増加を表し、骨折特異的検出精度も \textbf{2.9\%} によって向上した。
関連論文リスト
- Invisible Yet Detected: PelFANet with Attention-Guided Anatomical Fusion for Pelvic Fracture Diagnosis [2.0403098113633096]
PelFANetは骨の断片化によって骨の分類を改善するために生の骨盤X線を融合する2重ストリームアテンションネットワークである。
PelFANetはセグメンテーション誘導アプローチで2段階パイプラインでトレーニングされ、従来のメソッドよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-09-17T10:06:08Z) - DRetNet: A Novel Deep Learning Framework for Diabetic Retinopathy Diagnosis [8.234135343778993]
現在のDR検出システムは、画質の悪い画像、解釈可能性の欠如、ドメイン固有の知識の不十分な統合に苦慮している。
3つの革新的なコントリビューションを統合する新しいフレームワークを紹介します。
フレームワークの精度は92.7%、精度は92.5%、リコールは92.6%、F1スコアは92.5%、AUCは97.8%、mAPは0.96、MCCは0.85である。
論文 参考訳(メタデータ) (2025-09-01T02:27:16Z) - Adapting Foundation Model for Dental Caries Detection with Dual-View Co-Training [53.77904429789069]
本稿では, 歯列検出のための新しいDual-View Co-TrainingネットワークであるAttention-TNetについて紹介する。
OurTNetは、自動歯肉検出を用いて、パノラマX線画像からのグローバルビューと、収穫した歯肉画像からのローカルビューの2つの補完的なビューを確立する。
両ビューからの情報を効果的に統合するために,Gated Cross-Viewモジュールを導入する。
論文 参考訳(メタデータ) (2025-08-28T14:13:26Z) - Crane: Context-Guided Prompt Learning and Attention Refinement for Zero-Shot Anomaly Detection [50.343419243749054]
異常検出は、医学診断や工業的欠陥検出などの分野において重要である。
CLIPの粗粒化画像テキストアライメントは、微粒化異常に対する局所化と検出性能を制限する。
クレーンは最先端のZSADを2%から28%に改善し、画像レベルとピクセルレベルの両方で、推論速度では競争力を維持している。
論文 参考訳(メタデータ) (2025-04-15T10:42:25Z) - A Cascaded Dilated Convolution Approach for Mpox Lesion Classification [0.0]
Mpoxウイルスは、他の皮膚疾患と視覚的に類似しているため、重要な診断上の課題を呈する。
深層学習に基づく皮膚病変分類のアプローチは、有望な代替手段を提供する。
本稿では,これらの課題に対処するためのCascaded Atrous Group Attentionフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-12-13T12:47:30Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Pushing the Limits of Fewshot Anomaly Detection in Industry Vision:
Graphcore [71.09522172098733]
FSADにおけるグラフ表現を利用して,新しい視覚不変特徴(VIIF)を異常測定特徴として利用する。
VIIFは異常識別能力を確実に向上し、Mに格納された冗長な特徴のサイズをさらに小さくすることができる。
さらに、教師なしFSADトレーニングを高速に実装し、異常検出の性能を向上させることができる、VIIFによる新しいモデルGraphCoreを提供する。
論文 参考訳(メタデータ) (2023-01-28T03:58:32Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Weakly-Supervised Universal Lesion Segmentation with Regional Level Set
Loss [16.80758525711538]
高分解能ネットワーク(HRNet)に基づく新しい弱監督ユニバーサル病変分割法を提案する。
AHRNetはデコーダ、デュアルアテンション、スケールアテンション機構を含む高度な高解像度のディープイメージ機能を提供する。
本手法は,公開大規模deeplesionデータセットとホールドアウトテストセットにおいて,最高の性能を実現する。
論文 参考訳(メタデータ) (2021-05-03T23:33:37Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。