論文の概要: Self-Supervised Multiview Xray Matching
- arxiv url: http://arxiv.org/abs/2507.00287v1
- Date: Mon, 30 Jun 2025 21:56:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:58.951435
- Title: Self-Supervised Multiview Xray Matching
- Title(参考訳): 自己監督型マルチビューX線マッチング
- Authors: Mohamad Dabboussi, Malo Huard, Yann Gousseau, Pietro Gori,
- Abstract要約: 現在の方法は、しばしば異なるX線ビュー間の堅牢な対応を確立するのに苦労する。
手動のアノテーションを必要としない新しい自己教師型パイプラインを提案する。
提案手法では,2つ以上のX線ビューの対応を正確に予測するために,トランスフォーマーベースのトレーニングフェーズを組み込む。
- 参考スコア(独自算出の注目度): 4.033064933995391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate interpretation of multi-view radiographs is crucial for diagnosing fractures, muscular injuries, and other anomalies. While significant advances have been made in AI-based analysis of single images, current methods often struggle to establish robust correspondences between different X-ray views, an essential capability for precise clinical evaluations. In this work, we present a novel self-supervised pipeline that eliminates the need for manual annotation by automatically generating a many-to-many correspondence matrix between synthetic X-ray views. This is achieved using digitally reconstructed radiographs (DRR), which are automatically derived from unannotated CT volumes. Our approach incorporates a transformer-based training phase to accurately predict correspondences across two or more X-ray views. Furthermore, we demonstrate that learning correspondences among synthetic X-ray views can be leveraged as a pretraining strategy to enhance automatic multi-view fracture detection on real data. Extensive evaluations on both synthetic and real X-ray datasets show that incorporating correspondences improves performance in multi-view fracture classification.
- Abstract(参考訳): 多視点ラジオグラフィーの正確な解釈は、骨折、筋肉損傷、その他の異常の診断に不可欠である。
単一の画像のAIベースの分析において、大きな進歩があったが、現在の方法は、正確な臨床評価に不可欠な、異なるX線ビュー間の堅牢な対応を確立するのにしばしば苦労している。
本研究では,合成X線ビュー間の多対多対応行列を自動生成することにより,手動によるアノテーションの必要性を解消する,新たな自己教師型パイプラインを提案する。
これは、デジタル再構成されたラジオグラフィ(DRR)を用いて達成され、非注釈のCTボリュームから自動的に抽出される。
提案手法では,2つ以上のX線ビューの対応を正確に予測するために,トランスフォーマーベースのトレーニングフェーズを組み込む。
さらに, 合成X線ビュー間の学習対応を事前学習戦略として活用し, 実データ上での自動多視点き裂検出を向上できることを示す。
合成X線データセットと実X線データセットの総合評価により, 対応を組み込むことで, マルチビューフラクチャー分類の性能が向上することが示された。
関連論文リスト
- RadFabric: Agentic AI System with Reasoning Capability for Radiology [61.25593938175618]
RadFabricは、総合的なCXR解釈のための視覚的およびテキスト分析を統合するマルチエージェント、マルチモーダル推論フレームワークである。
システムは、病理診断に特殊なCXRエージェント、正確な解剖学的構造に視覚所見をマッピングする解剖学的解釈エージェント、および視覚的、解剖学的、臨床データを透明かつ証拠に基づく診断に合成する大規模なマルチモーダル推論モデルを利用した推論エージェントを使用する。
論文 参考訳(メタデータ) (2025-06-17T03:10:33Z) - Automatic Multi-View X-Ray/CT Registration Using Bone Substructure Contours [0.5949599220326207]
術中骨登録のための新しい多視点X線/CT登録法を提案する。
メソッドはマルチビューの輪郭ベースの反復的最近点 (ICP) 最適化で構成されている。
MRPD 0.67mmと商用溶液の5.35mmとで連続的にサブミリ精度を達成している。
論文 参考訳(メタデータ) (2025-06-16T09:33:37Z) - Enhancing Prohibited Item Detection through X-ray-Specific Augmentation and Contextual Feature Integration [81.11400642272976]
X線は、長い尾の分布とX線イメージングの特徴のために、アイテム検出が禁止されている。
コピーペーストやミックスアップのような従来のデータ拡張戦略は、まれなアイテムの検出を改善するのに効果がない。
これらの課題に対処するために,X-ray Imaging-driven Detection Network (XIDNet)を提案する。
論文 参考訳(メタデータ) (2024-11-27T06:13:56Z) - Structural Entities Extraction and Patient Indications Incorporation for Chest X-ray Report Generation [10.46031380503486]
胸部X線レポート生成のための新しい方法である textbfStructural textbfEntities 抽出法と textbfIncorporation (SEI) を考案した。
我々は、レポートにおけるプレゼンテーションスタイルの語彙を排除するために、構造エンティティ抽出(SEE)アプローチを採用する。
我々は,X線画像,類似の歴史的症例,患者固有の指標からの情報を統合するクロスモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T01:29:47Z) - Eye-gaze Guided Multi-modal Alignment for Medical Representation Learning [65.54680361074882]
アイゲイズガイドマルチモーダルアライメント(EGMA)フレームワークは、アイゲイズデータを利用して、医用視覚的特徴とテキスト的特徴のアライメントを改善する。
我々は4つの医療データセット上で画像分類と画像テキスト検索の下流タスクを行う。
論文 参考訳(メタデータ) (2024-03-19T03:59:14Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - An Empirical Analysis for Zero-Shot Multi-Label Classification on
COVID-19 CT Scans and Uncurated Reports [0.5527944417831603]
パンデミックは、医学検査の増加により、放射線学の報告を含む、膨大な構造化されていないデータのリポジトリに繋がった。
新型コロナウイルスの自動診断に関するこれまでの研究は、CT(Computed tomography)スキャンと比較して精度が低いにもかかわらず、主にX線画像に焦点を当てていた。
本研究では,病院の非構造データを活用し,CTスキャンによって提供される細かな細部を利用して,対照的な視覚言語学習に基づくゼロショット多ラベル分類を行う。
論文 参考訳(メタデータ) (2023-09-04T17:58:01Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。