論文の概要: DXM-TransFuse U-net: Dual Cross-Modal Transformer Fusion U-net for
Automated Nerve Identification
- arxiv url: http://arxiv.org/abs/2202.13304v1
- Date: Sun, 27 Feb 2022 07:18:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 17:08:49.357510
- Title: DXM-TransFuse U-net: Dual Cross-Modal Transformer Fusion U-net for
Automated Nerve Identification
- Title(参考訳): DXM-TransFuse U-net: Dual Cross-Modal Transformer Fusion U-net for Automated Nerve Identification
- Authors: Baijun Xie, Gary Milam, Bo Ning, Jaepyeong Cha, Chung Hyuk Park
- Abstract要約: 正確な神経の同定は、神経組織への損傷を予防するための外科的処置において重要である。
そこで我々は,Transformerブロックをベースとした融合モジュールをボトルネックとした,U-Netアーキテクチャを用いたディープラーニングネットワークフレームワークを開発した。
- 参考スコア(独自算出の注目度): 2.0299248281970956
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate nerve identification is critical during surgical procedures for
preventing any damages to nerve tissues. Nerve injuries can lead to long-term
detrimental effects for patients as well as financial overburdens. In this
study, we develop a deep-learning network framework using the U-Net
architecture with a Transformer block based fusion module at the bottleneck to
identify nerve tissues from a multi-modal optical imaging system. By leveraging
and extracting the feature maps of each modality independently and using each
modalities information for cross-modal interactions, we aim to provide a
solution that would further increase the effectiveness of the imaging systems
for enabling the noninvasive intraoperative nerve identification.
- Abstract(参考訳): 神経組織の損傷を予防するために、外科手術中に正確な神経同定が重要である。
神経損傷は、患者の長期的不利益や財政的負担につながる可能性がある。
本研究では,マルチモーダル光イメージングシステムから神経組織を識別するために,トランスフォーマーブロックを用いた融合モジュールを用いたu-netアーキテクチャを用いたディープラーニングネットワークフレームワークを開発した。
各モダリティの特徴マップを独立に活用し、各モダリティ情報を交叉モダリティ相互作用に利用することにより、非侵襲的な術中神経同定を可能にするためのイメージングシステムの有効性をさらに高めるソリューションを提供することを目標とする。
関連論文リスト
- Edge-Enhanced Dilated Residual Attention Network for Multimodal Medical Image Fusion [13.029564509505676]
マルチモーダル・メディカル・イメージ・フュージョン(Multimodal Medical Image fusion)は、様々な画像モダリティからの相補的な情報を統一的な表現に結合する重要なタスクである。
深層学習手法は融合性能が著しく向上しているが、既存のCNNベースの手法では、微細なマルチスケールとエッジの特徴を捉えるには不十分である。
マルチスケール機能抽出のためのDilated Residual Attention Network Moduleを導入することで,これらの制約に対処する新しいCNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-11-18T18:11:53Z) - Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Disentangled Multimodal Brain MR Image Translation via Transformer-based
Modality Infuser [12.402947207350394]
マルチモーダル脳MR画像の合成を目的としたトランスフォーマーを用いたモダリティインジェクタを提案する。
本手法では,エンコーダからモダリティに依存しない特徴を抽出し,その特徴をモダリティ固有の特徴に変換する。
われわれはBraTS 2018データセットで4つのMRモードを変換する実験を行った。
論文 参考訳(メタデータ) (2024-02-01T06:34:35Z) - Alzheimer's Disease Prediction via Brain Structural-Functional Deep
Fusing Network [5.945843237682432]
機能的および構造的情報を融合するために, クロスモーダルトランスフォーマー生成対向ネットワーク (CT-GAN) を提案する。
生成した接続特性を解析することにより,AD関連脳の接続を同定することができる。
パブリックADNIデータセットの評価から,提案したCT-GANは予測性能を劇的に向上し,AD関連脳領域を効果的に検出できることが示された。
論文 参考訳(メタデータ) (2023-09-28T07:06:42Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - MedViT: A Robust Vision Transformer for Generalized Medical Image
Classification [4.471084427623774]
我々は,CNNの局所性と視覚変換器のグローバル接続性を備えた,頑健で効率的なCNN-Transformerハイブリッドモデルを提案する。
提案したハイブリッドモデルは,MedMNIST-2Dデータセットの大規模コレクションに関する最先端の研究と比較して,高い堅牢性と一般化能力を示す。
論文 参考訳(メタデータ) (2023-02-19T02:55:45Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - ResViT: Residual vision transformers for multi-modal medical image
synthesis [0.0]
本稿では、畳み込み演算子の局所的精度と視覚変換器の文脈的感度を組み合わせ、医用画像合成のための新しい生成逆変換手法ResViTを提案する。
以上の結果から,ResViTと競合する手法の質的観察と定量化の両面での優位性が示唆された。
論文 参考訳(メタデータ) (2021-06-30T12:57:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。