論文の概要: Wrist bone segmentation in X-ray images using CT-based simulations
- arxiv url: http://arxiv.org/abs/2507.07131v1
- Date: Tue, 08 Jul 2025 21:55:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.132791
- Title: Wrist bone segmentation in X-ray images using CT-based simulations
- Title(参考訳): CTシミュレーションによるX線画像の骨分割
- Authors: Youssef ElTantawy, Alexia Karantana, Xin Chen,
- Abstract要約: この研究は、10個の骨ラベルを持つ多数のシミュレーションされたX線画像を用いて、実際のX線画像における手首骨のセグメンテーションのための深層学習モデルを訓練する。
シミュレーション画像と実画像の両方を用いて提案手法の評価を行った。
- 参考スコア(独自算出の注目度): 3.031228782572461
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Plain X-ray is one of the most common image modalities for clinical diagnosis (e.g. bone fracture, pneumonia, cancer screening, etc.). X-ray image segmentation is an essential step for many computer-aided diagnostic systems, yet it remains challenging. Deep-learning-based methods have achieved superior performance in medical image segmentation tasks but often require a large amount of high-quality annotated data for model training. Providing such an annotated dataset is not only time-consuming but also requires a high level of expertise. This is particularly challenging in wrist bone segmentation in X-rays, due to the interposition of multiple small carpal bones in the image. To overcome the data annotation issue, this work utilizes a large number of simulated X-ray images generated from Computed Tomography (CT) volumes with their corresponding 10 bone labels to train a deep learning-based model for wrist bone segmentation in real X-ray images. The proposed method was evaluated using both simulated images and real images. The method achieved Dice scores ranging from 0.80 to 0.92 for the simulated dataset generated from different view angles. Qualitative analysis of the segmentation results of the real X-ray images also demonstrated the superior performance of the trained model. The trained model and X-ray simulation code are freely available for research purposes: the link will be provided upon acceptance.
- Abstract(参考訳): プレーンX線は、臨床診断(例えば、骨骨折、肺炎、がん検診など)において最も一般的な画像モダリティの1つである。
X線画像のセグメンテーションは多くのコンピュータ支援診断システムにとって重要なステップである。
深層学習に基づく手法は、医用画像分割タスクにおいて優れた性能を達成してきたが、モデルトレーニングには大量の高品質な注釈付きデータを必要とすることが多い。
このような注釈付きデータセットを提供することは、時間を要するだけでなく、高いレベルの専門知識も必要です。
これは、画像に複数の小さな手根骨が介在しているため、手首骨のX線分割が特に困難である。
データアノテーションの問題を克服するために,CT(Computed Tomography)ボリュームから生成された多数のX線画像と対応する10個の骨ラベルを用いて,実際のX線画像における手首骨分割のための深層学習モデルを訓練する。
シミュレーション画像と実画像の両方を用いて提案手法の評価を行った。
異なる角度から生成されたシミュレーションデータセットに対して、Diceスコアは0.80から0.92の範囲で達成された。
実X線画像のセグメンテーション結果の質的解析も、訓練されたモデルの優れた性能を示した。
トレーニングされたモデルとX線シミュレーションコードは、研究目的で自由に利用可能である。
関連論文リスト
- X-GRM: Large Gaussian Reconstruction Model for Sparse-view X-rays to Computed Tomography [89.84588038174721]
Computed Tomographyは臨床において必須のツールであり、内部解剖学的構造を非侵襲的に可視化する。
既存のCT再構成作業は、小さなキャパシティモデルアーキテクチャと非フレキシブルボリューム表現に限られている。
スパースビュー2次元X線プロジェクションから3次元CTボリュームを再構成する大規模なフィードフォワードモデルであるX-GRMを提案する。
論文 参考訳(メタデータ) (2025-05-21T08:14:10Z) - X-LRM: X-ray Large Reconstruction Model for Extremely Sparse-View Computed Tomography Recovery in One Second [52.11676689269379]
スパースビュー3次元CT再構成は, 限られた2次元X線投影から構造を復元することを目的としている。
既存のフィードフォワード手法は、CNNベースのアーキテクチャの限られた能力と大規模なトレーニングデータセットの不足によって制約される。
X線大画像再構成モデル(X-LRM)を提案する。
論文 参考訳(メタデータ) (2025-03-09T01:39:59Z) - Enhancing Prohibited Item Detection through X-ray-Specific Augmentation and Contextual Feature Integration [81.11400642272976]
X線は、長い尾の分布とX線イメージングの特徴のために、アイテム検出が禁止されている。
コピーペーストやミックスアップのような従来のデータ拡張戦略は、まれなアイテムの検出を改善するのに効果がない。
これらの課題に対処するために,X-ray Imaging-driven Detection Network (XIDNet)を提案する。
論文 参考訳(メタデータ) (2024-11-27T06:13:56Z) - Medical Image Analysis for Detection, Treatment and Planning of Disease using Artificial Intelligence Approaches [1.6505331001136514]
人工知能技術を用いたX線画像のセグメンテーションのためのフレームワークについて論じる。
提案手法は16のバッチサイズと50のエポックを持つよく知られたパラメータに関して,より優れた性能を発揮する。
SegNetとResidual Unetの検証精度、精度、リコールの値は、それぞれ0.9815、0.9699、0.9574、0.9901、0.9864、0.9750である。
論文 参考訳(メタデータ) (2024-05-18T13:43:43Z) - Multi-view X-ray Image Synthesis with Multiple Domain Disentanglement from CT Scans [10.72672892416061]
過剰投与されたX線は、ある程度人間の健康への潜在的なリスクを重畳する。
ボリュームスキャンからX線画像へのデータ駆動アルゴリズムは、ペア化されたX線とボリュームデータの不足によって制限される。
我々は,3つの異なる画像領域からのコンテンツとスタイルのゆがみを利用して,X線画像をエンドツーエンドに合成するCT2X-GANを提案する。
論文 参考訳(メタデータ) (2024-04-18T04:25:56Z) - MUSCLE: Multi-task Self-supervised Continual Learning to Pre-train Deep
Models for X-ray Images of Multiple Body Parts [63.30352394004674]
MUSCLE(Multi-task Self-super-vised Continual Learning)は、医用画像処理タスクのための、新しい自己教師付き事前学習パイプラインである。
MUSCLEは、複数の身体部分から収集したX線を集約して表現学習を行い、よく設計された連続学習手順を採用する。
肺炎分類,骨格異常分類,肺セグメンテーション,結核(TB)検出など,9つの実世界のX線データセットを用いてMUSCLEを評価する。
論文 参考訳(メタデータ) (2023-10-03T12:19:19Z) - Self-Supervised 2D/3D Registration for X-Ray to CT Image Fusion [10.040271638205382]
シミュレーショントレーニングと教師なし特徴と画素空間領域適応を組み合わせた自己教師付き2D/3D登録フレームワークを提案する。
本フレームワークは, 実X線画像における90.1%の成功率で, 1.83$pm$1.16 mmの登録精度を達成している。
論文 参考訳(メタデータ) (2022-10-14T08:06:57Z) - VertXNet: Automatic Segmentation and Identification of Lumbar and
Cervical Vertebrae from Spinal X-ray Images [4.310687588548587]
VertXNetはX線脊椎画像で脊椎を自動的に分類しラベル付けするためのアンサンブル法である。
人間の専門家によるレビューを必要とせず、注釈付き椎骨の欠如を回避できる。
論文 参考訳(メタデータ) (2022-07-12T11:43:33Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。