論文の概要: Invisible Yet Detected: PelFANet with Attention-Guided Anatomical Fusion for Pelvic Fracture Diagnosis
- arxiv url: http://arxiv.org/abs/2509.13873v1
- Date: Wed, 17 Sep 2025 10:06:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.816027
- Title: Invisible Yet Detected: PelFANet with Attention-Guided Anatomical Fusion for Pelvic Fracture Diagnosis
- Title(参考訳): Invisible yet detected: PelFANet with Attention-Guided anatomical Fusion for Pelvic fracture
- Authors: Siam Tahsin Bhuiyan, Rashedur Rahman, Sefatul Wasi, Naomi Yagi, Syoji Kobashi, Ashraful Islam, Saadia Binte Alam,
- Abstract要約: PelFANetは骨の断片化によって骨の分類を改善するために生の骨盤X線を融合する2重ストリームアテンションネットワークである。
PelFANetは目に見える骨折に対して88.68%の精度と0.9334のAUCを達成し、トレーニングを受けていないにもかかわらず82.29%の精度と0.8688のAUCを効果的に利用した。
- 参考スコア(独自算出の注目度): 2.0403098113633096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pelvic fractures pose significant diagnostic challenges, particularly in cases where fracture signs are subtle or invisible on standard radiographs. To address this, we introduce PelFANet, a dual-stream attention network that fuses raw pelvic X-rays with segmented bone images to improve fracture classification. The network em-ploys Fused Attention Blocks (FABlocks) to iteratively exchange and refine fea-tures from both inputs, capturing global context and localized anatomical detail. Trained in a two-stage pipeline with a segmentation-guided approach, PelFANet demonstrates superior performance over conventional methods. On the AMERI dataset, it achieves 88.68% accuracy and 0.9334 AUC on visible fractures, while generalizing effectively to invisible fracture cases with 82.29% accuracy and 0.8688 AUC, despite not being trained on them. These results highlight the clini-cal potential of anatomy-aware dual-input architectures for robust fracture detec-tion, especially in scenarios with subtle radiographic presentations.
- Abstract(参考訳): 骨盤骨折は、特に標準的なX線写真では、骨折の兆候が微妙で目に見えない場合において、重要な診断上の課題となる。
PelFANetは骨の断片化された画像と生の骨のX線を融合させて骨折の分類を改善するための2重ストリームアテンションネットワークである。
このネットワークは、Fused Attention Blocks (FABlocks) をエミュレートして、両方の入力からフェーアチャーを反復的に交換し、精製し、グローバルコンテキストをキャプチャし、解剖学的詳細をローカライズする。
PelFANetはセグメンテーション誘導のアプローチで2段階のパイプラインで訓練されており、従来の手法よりも優れたパフォーマンスを示している。
AMERIデータセットでは、目に見える骨折に対して88.68%の精度と0.9334のAUCを達成し、トレーニングを受けていないにもかかわらず、82.29%の精度と0.8688のAUCを効果的に利用した。
これらの結果は、特に微妙なX線表示を伴うシナリオにおいて、解剖学的に認識された2重インプットアーキテクチャーの強靭な破壊デテックオンに対するクリニカルポテンシャルを強調した。
関連論文リスト
- DCAT: Dual Cross-Attention Fusion for Disease Classification in Radiological Images with Uncertainty Estimation [0.0]
本稿では,医用画像解析のための新しい二重対向核融合モデルを提案する。
機能統合と解釈可能性における重要な課題に対処する。
提案されたモデルはAUCの99.75%、100%、99.93%、98.69%、AUPRの99.81%、100%、99.97%、96.36%をそれぞれコビッド19、結核、肺炎胸部X線画像、網膜CT画像で達成した。
論文 参考訳(メタデータ) (2025-03-14T20:28:20Z) - Leveraging Auxiliary Classification for Rib Fracture Segmentation [5.163088719949993]
本研究は, 骨盤骨折セグメント化の精度を高めるために, 補助的分類タスクを組み込んだ高度深層学習モデルを提案する。
補助的分類課題は, 骨折したリブと負の領域を区別し, 非破壊的なリブと周囲の組織を包含する上で重要である。
RibFracデータセットの実験結果はセグメンテーション性能が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2024-11-14T08:40:08Z) - Deep Rib Fracture Instance Segmentation and Classification from CT on
the RibFrac Challenge [66.86170104167608]
RibFrac Challengeは、660のCTスキャンから5,000以上のリブ骨折のベンチマークデータセットを提供する。
MICCAI 2020チャレンジ期間中に243つの結果が評価され、7つのチームがチャレンジサマリーに参加するために招待された。
この分析により、いくつかのトップリブ骨折検出ソリューションが、人間の専門家と同等かそれ以上の性能を達成したことが明らかになった。
論文 参考訳(メタデータ) (2024-02-14T18:18:33Z) - Intelligent Cervical Spine Fracture Detection Using Deep Learning
Methods [0.0]
本稿では,各画像スライスにおける頚椎の存在を識別するための2段階パイプラインを提案する。
第1段階では、画像メタデータと画像メタデータを組み込んだマルチインプットネットワークを訓練する。
第2段階では、画像内の骨折を検出するためにYOLOv8モデルを訓練し、その効果をYOLOv5と比較する。
論文 参考訳(メタデータ) (2023-11-09T19:34:42Z) - Faint Features Tell: Automatic Vertebrae Fracture Screening Assisted by
Contrastive Learning [11.944282446506396]
長期の脊椎骨折は患者の生活の質に深刻な影響を与え、気胸、腰椎変形、さらには麻痺を引き起こしている。
特に、深層学習モデルや経験の浅い医師では、軽度の骨折と正常なコントロールを区別することは極めて困難である。
そこで本研究では,CTスキャンを用いてGenentの脊椎骨折度を推定するための教師付きコントラスト学習ベースモデルを提案する。
両分類では99%,感度は85%,マクロF1は77%であった。
論文 参考訳(メタデータ) (2022-08-23T02:39:08Z) - Fast and Robust Femur Segmentation from Computed Tomography Images for
Patient-Specific Hip Fracture Risk Screening [48.46841573872642]
我々は,CTから大腿骨近位部を完全自動化し,正確かつ高速に分割するディープニューラルネットワークを提案する。
本手法は, 股関節骨折リスクスクリーニングに適応し, 当科において, 股関節脱臼患者をスクリーニングするための臨床的選択肢に一歩近づいた。
論文 参考訳(メタデータ) (2022-04-20T16:16:16Z) - External Attention Assisted Multi-Phase Splenic Vascular Injury
Segmentation with Limited Data [72.99534552950138]
脾臓は腹部外傷において最も多く損傷を受けた固形臓器の1つである。
脾臓血管損傷の 正確な分節化は 以下の理由から 困難です
論文 参考訳(メタデータ) (2022-01-04T02:35:56Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Grading Loss: A Fracture Grade-based Metric Loss for Vertebral Fracture
Detection [58.984536305767996]
自動椎骨骨折検出のための表現学習型アプローチを提案する。
本稿では,Genantのフラクチャーグレーディングスキームを尊重する,学習表現のための新しいGrading Lossを提案する。
一般に利用可能なスピーンデータセットでは、提案された損失関数が81.5%のフラクチャー検出F1スコアを達成する。
論文 参考訳(メタデータ) (2020-08-18T10:03:45Z) - Inf-Net: Automatic COVID-19 Lung Infection Segmentation from CT Images [152.34988415258988]
CT画像からの肺感染症の自動検出は、新型コロナウイルスに対処するための従来の医療戦略を強化する大きな可能性を秘めている。
CTスライスから感染領域を分割することは、高い感染特性の変化、感染と正常な組織の間の低強度のコントラストなど、いくつかの課題に直面している。
これらの課題に対処するため, 胸部CTスライスから感染部位を自動的に同定する, 新型のCOVID-19 Deep Lung infection Network (Inf-Net) が提案されている。
論文 参考訳(メタデータ) (2020-04-22T07:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。