論文の概要: Axial-Centric Cross-Plane Attention for 3D Medical Image Classification
- arxiv url: http://arxiv.org/abs/2602.21636v1
- Date: Wed, 25 Feb 2026 07:00:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.735065
- Title: Axial-Centric Cross-Plane Attention for 3D Medical Image Classification
- Title(参考訳): 3次元医用画像分類のための軸中心断面注意法
- Authors: Doyoung Park, Jinsoo Kim, Lohendran Baskaran,
- Abstract要約: 臨床医は一般的に、単一の表現としてではなく、複数の解剖学的平面を用いて3次元の医像を解釈する。
本稿では,3次元医用画像分類のための軸中心面アテンションアーキテクチャを提案する。
MedDINOv3は大規模X線CT画像の自己教師型学習によって事前訓練された医用視覚基盤モデルである。
- 参考スコア(独自算出の注目度): 0.14868610461685575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clinicians commonly interpret three-dimensional (3D) medical images, such as computed tomography (CT) scans, using multiple anatomical planes rather than as a single volumetric representation. In this multi-planar approach, the axial plane typically serves as the primary acquisition and diagnostic reference, while the coronal and sagittal planes provide complementary spatial information to increase diagnostic confidence. However, many existing 3D deep learning methods either process volumetric data holistically or assign equal importance to all planes, failing to reflect the axial-centric clinical interpretation workflow. To address this gap, we propose an axial-centric cross-plane attention architecture for 3D medical image classification that captures the inherent asymmetric dependencies between different anatomical planes. Our architecture incorporates MedDINOv3, a medical vision foundation model pretrained via self-supervised learning on large-scale axial CT images, as a frozen feature extractor for the axial, coronal, and sagittal planes. RICA blocks and intra-plane transformer encoders capture plane-specific positional and contextual information within each anatomical plane, while axial-centric cross-plane transformer encoders condition axial features on complementary information from auxiliary planes. Experimental results on six datasets from the MedMNIST3D benchmark demonstrate that the proposed architecture consistently outperforms existing 3D and multi-plane models in terms of accuracy and AUC. Ablation studies further confirm the importance of axial-centric query-key-value allocation and directional cross-plane fusion. These results highlight the importance of aligning architectural design with clinical interpretation workflows for robust and data-efficient 3D medical image analysis.
- Abstract(参考訳): 臨床医は通常、CT(Computerd tomography)スキャンのような3次元の医療画像を、単一の体積表現ではなく複数の解剖学的平面を用いて解釈する。
この多平面アプローチでは、軸方向平面が典型的には一次取得および診断基準として機能し、一方、コロナ面と矢状面は相補的な空間情報を提供し、診断信頼性を高める。
しかし、既存の3D深層学習手法の多くは、体積データを一様に処理するか、全ての平面に等しく重要度を割り当て、軸中心の臨床解釈のワークフローを反映しない。
このギャップに対処するために、異なる解剖学的平面間の非対称な関係をキャプチャする3次元医用画像分類のための軸中心型クロスプレーンアテンションアーキテクチャを提案する。
MedDINOv3は,大規模X線CT画像の自己教師学習によって事前訓練された医用視覚基盤モデルであり,軸,コロナおよび矢状面の凍結特徴抽出器として組み込まれている。
RICAブロックと平面内変圧器エンコーダは、各解剖学的平面内の平面固有の位置情報と文脈情報をキャプチャし、軸中心のクロスプレーントランスコーダエンコーダエンコーダは補助平面からの相補的な情報に軸的特徴を与える。
MedMNIST3Dベンチマークから得られた6つのデータセットの実験結果は、提案アーキテクチャが既存の3Dモデルやマルチプレーンモデルよりも精度とAUCで一貫して優れていることを示している。
アブレーション研究は、軸中心のクエリキー値アロケーションと方向の平面間融合の重要性をさらに裏付ける。
これらの結果は、ロバストでデータ効率のよい3次元医用画像解析のために、建築設計と臨床解釈ワークフローを整合させることの重要性を強調している。
関連論文リスト
- 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - GASA-UNet: Global Axial Self-Attention U-Net for 3D Medical Image Segmentation [8.939740171704388]
本稿では,GTA(Global Axial Self-Attention)ブロックを特徴とする改良されたU-Net型モデルを提案する。
このブロックは、異なる解剖学的断面を表す各2次元平面で、画像データを3次元実体として処理する。
我々のモデルは,特に小解剖学的構造に対して,セグメンテーション性能の有望な改善を証明した。
論文 参考訳(メタデータ) (2024-09-20T01:23:53Z) - Diff3Dformer: Leveraging Slice Sequence Diffusion for Enhanced 3D CT Classification with Transformer Networks [5.806035963947936]
拡散型3次元視覚変換器(Diff3Dformer)を提案する。
本手法は, 肺CTの2種類の小さなデータセットに対して, 改良された性能を示す。
論文 参考訳(メタデータ) (2024-06-24T23:23:18Z) - Automatic view plane prescription for cardiac magnetic resonance imaging
via supervision by spatial relationship between views [30.59897595586657]
本研究は、自動心臓磁気共鳴(CMR)ビュープランニングのための、臨床互換でアノテーションのないシステムを提案する。
システムは、特に、対象の平面とソースビューの間の交差する線の位置を空間的関係にマイニングする。
ソースビューで予測される複数のターゲット面の相互作用は、積み重ねられた時間ガラスアーキテクチャで利用され、徐々にレグレッションが向上する。
論文 参考訳(メタデータ) (2023-09-22T11:36:42Z) - On the Localization of Ultrasound Image Slices within Point Distribution
Models [84.27083443424408]
甲状腺疾患は高分解能超音波(US)で診断されることが多い
縦断追跡は病理甲状腺形態の変化をモニタリングするための重要な診断プロトコルである。
3次元形状表現におけるUS画像の自動スライスローカライズのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-01T10:10:46Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - Agent with Tangent-based Formulation and Anatomical Perception for
Standard Plane Localization in 3D Ultrasound [56.7645826576439]
3D USにおけるSP自動位置決めのための新しい強化学習フレームワークを提案する。
まず、RLにおける接点に基づく問題として、3D USにおけるSP局所化を定式化し、作用空間を再構成する。
第2に、平面探索における非SPとSPの交差する微妙な違いを認識するモデルの能力を高めるための補助的タスク学習戦略を設計する。
論文 参考訳(メタデータ) (2022-07-01T14:53:27Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - Optimal Transport-based Graph Matching for 3D retinal OCT image
registration [13.93497551507791]
本稿では、3DマウスOCT画像登録のための最適なトランスポートベースグラフマッチング(OT-GM)手法を含む,斬新だが効率的なフレームワークを提案する。
主観的および客観的評価の結果は,本フレームワークがマウスOCT画像上で,合理的な実行時間内で,他の確立された手法よりも優れていたことを示している。
論文 参考訳(メタデータ) (2022-02-28T20:15:12Z) - 3D Reconstruction of Curvilinear Structures with Stereo Matching
DeepConvolutional Neural Networks [52.710012864395246]
本稿では,立体対における曲線構造の検出とマッチングのための完全自動パイプラインを提案する。
主に、TEM画像のステレオ対から転位を3次元再構成することに焦点を当てる。
論文 参考訳(メタデータ) (2021-10-14T23:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。