論文の概要: The entire network structure of Crossmodal Transformer
- arxiv url: http://arxiv.org/abs/2104.14273v1
- Date: Thu, 29 Apr 2021 11:47:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 20:06:44.289403
- Title: The entire network structure of Crossmodal Transformer
- Title(参考訳): クロスモーダル変圧器の全ネットワーク構造
- Authors: Meng Li, Changyan Lin, Lixia Shu, Xin Pu, Yi Chen, Heng Wu, Jiasong
Li, Hongshuai Cao
- Abstract要約: 提案手法はまず2次元X線と3次元CT画像から骨格の特徴を深く学習する。
その結果、よく訓練されたネットワークは任意の2D X線と3D CT間の空間的対応を直接予測することができる。
- 参考スコア(独自算出の注目度): 4.605531191013731
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Since the mapping relationship between definitized intra-interventional 2D
X-ray and undefined pre-interventional 3D Computed Tomography(CT) is uncertain,
auxiliary positioning devices or body markers, such as medical implants, are
commonly used to determine this relationship. However, such approaches can not
be widely used in clinical due to the complex realities. To determine the
mapping relationship, and achieve a initializtion post estimation of human body
without auxiliary equipment or markers, a cross-modal matching transformer
network is proposed to matching 2D X-ray and 3D CT images directly. The
proposed approach first deep learns skeletal features from 2D X-ray and 3D CT
images. The features are then converted into 1D X-ray and CT representation
vectors, which are combined using a multi-modal transformer. As a result, the
well-trained network can directly predict the spatial correspondence between
arbitrary 2D X-ray and 3D CT. The experimental results show that when combining
our approach with the conventional approach, the achieved accuracy and speed
can meet the basic clinical intervention needs, and it provides a new direction
for intra-interventional registration.
- Abstract(参考訳): 固定化2次元X線と未定義3次元CTとのマッピング関係は不確かであるため、補助的位置決め装置や医療用インプラントなどの身体マーカーが一般的にこの関係を決定するために用いられる。
しかし,このようなアプローチは複雑な現実のために臨床で広くは利用できない。
マッピング関係を判定し,補助装置やマーカーを使わずに人体の初期化後推定を実現するため,2次元X線画像と3次元CT画像を直接マッチングするクロスモーダルマッチングトランスフォーマネットワークを提案する。
提案手法はまず2次元X線と3次元CT画像から骨格の特徴を深く学習する。
その後、1次元X線とCT表現ベクトルに変換され、マルチモーダル変換器を用いて合成される。
その結果、よく訓練されたネットワークは、任意の2次元X線と3次元CTとの空間対応を直接予測できる。
実験の結果,本手法と従来のアプローチを組み合わせると,達成した精度と速度は臨床介入の基本的なニーズを満たし,インターベンション内登録への新たな方向性が得られた。
関連論文リスト
- Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - Intraoperative 2D/3D Image Registration via Differentiable X-ray Rendering [5.617649111108429]
DiffPoseは、患者固有のシミュレーションと微分可能な物理ベースのレンダリングを利用して、手動でラベル付けされたデータに頼ることなく正確な2D/3D登録を実現する自己教師型アプローチである。
DiffPoseは手術用データセット全体の術速でサブミリ精度を達成し、既存の教師なしの手法を桁違いに改善し、教師付きベースラインよりも優れています。
論文 参考訳(メタデータ) (2023-12-11T13:05:54Z) - X-Ray to CT Rigid Registration Using Scene Coordinate Regression [1.1687067206676627]
本稿では,極端視点に頑健な完全自動登録手法を提案する。
これは、与えられたX線画像の重なり合う座標を回帰する完全な畳み込みニューラルネットワーク(CNN)に基づいている。
提案手法は, 模擬試験データセットの50パーセンタイルにおける平均平均目標登録誤差(mTRE)を3.79mmとし, ペルビス登録のための実フルオロスコープ画像の50パーセンタイルにおける平均目標登録誤差(mTRE)を9.65mmと予測した。
論文 参考訳(メタデータ) (2023-11-25T17:48:46Z) - CNN-based real-time 2D-3D deformable registration from a single X-ray
projection [2.1198879079315573]
本稿では, フルオロスコープ画像を用いたリアルタイム2D-3D非剛体登録法を提案する。
術前スキャンから解剖学の変位場と2次元投影からなるデータセットを生成する。
ニューラルネットワークは、未知の3D変位場を単一の投影画像から回復するように訓練される。
論文 参考訳(メタデータ) (2022-12-15T09:57:19Z) - View-Disentangled Transformer for Brain Lesion Detection [50.4918615815066]
より正確な腫瘍検出のためのMRI特徴抽出のための新しいビューディペンタングル変換器を提案する。
まず, 3次元脳スキャンにおいて, 異なる位置の長距離相関を求める。
第二に、トランスフォーマーはスライス機能のスタックを複数の2Dビューとしてモデル化し、これらの機能をビュー・バイ・ビューとして拡張する。
第三に、提案したトランスモジュールをトランスのバックボーンに展開し、脳病変を取り巻く2D領域を効果的に検出する。
論文 参考訳(メタデータ) (2022-09-20T11:58:23Z) - IGCN: Image-to-graph Convolutional Network for 2D/3D Deformable
Registration [1.2246649738388387]
単一視点2次元投影画像に対する3次元臓器メッシュの変形可能な登録を実現する画像間畳み込みネットワークを提案する。
複数臓器間の関係を考慮に入れた形状予測は, 臨床的に許容できる精度で放射線像からの呼吸運動と変形を予測するのに有用である。
論文 参考訳(メタデータ) (2021-10-31T12:48:37Z) - 3D Reconstruction of Curvilinear Structures with Stereo Matching
DeepConvolutional Neural Networks [52.710012864395246]
本稿では,立体対における曲線構造の検出とマッチングのための完全自動パイプラインを提案する。
主に、TEM画像のステレオ対から転位を3次元再構成することに焦点を当てる。
論文 参考訳(メタデータ) (2021-10-14T23:05:47Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z) - Tattoo tomography: Freehand 3D photoacoustic image reconstruction with
an optical pattern [49.240017254888336]
光音響トモグラフィ(PAT)は、形態学的および機能的組織特性の両方を解決することができる新しいイメージング技術である。
現在の欠点は、従来の2Dプローブによって提供される視野の制限である。
本研究では,外部追跡システムを必要としないPATデータの3次元再構成手法を提案する。
論文 参考訳(メタデータ) (2020-11-10T09:27:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。