論文の概要: DXM-TransFuse U-net: Dual Cross-Modal Transformer Fusion U-net for
Automated Nerve Identification
- arxiv url: http://arxiv.org/abs/2202.13304v1
- Date: Sun, 27 Feb 2022 07:18:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 17:08:49.357510
- Title: DXM-TransFuse U-net: Dual Cross-Modal Transformer Fusion U-net for
Automated Nerve Identification
- Title(参考訳): DXM-TransFuse U-net: Dual Cross-Modal Transformer Fusion U-net for Automated Nerve Identification
- Authors: Baijun Xie, Gary Milam, Bo Ning, Jaepyeong Cha, Chung Hyuk Park
- Abstract要約: 正確な神経の同定は、神経組織への損傷を予防するための外科的処置において重要である。
そこで我々は,Transformerブロックをベースとした融合モジュールをボトルネックとした,U-Netアーキテクチャを用いたディープラーニングネットワークフレームワークを開発した。
- 参考スコア(独自算出の注目度): 2.0299248281970956
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate nerve identification is critical during surgical procedures for
preventing any damages to nerve tissues. Nerve injuries can lead to long-term
detrimental effects for patients as well as financial overburdens. In this
study, we develop a deep-learning network framework using the U-Net
architecture with a Transformer block based fusion module at the bottleneck to
identify nerve tissues from a multi-modal optical imaging system. By leveraging
and extracting the feature maps of each modality independently and using each
modalities information for cross-modal interactions, we aim to provide a
solution that would further increase the effectiveness of the imaging systems
for enabling the noninvasive intraoperative nerve identification.
- Abstract(参考訳): 神経組織の損傷を予防するために、外科手術中に正確な神経同定が重要である。
神経損傷は、患者の長期的不利益や財政的負担につながる可能性がある。
本研究では,マルチモーダル光イメージングシステムから神経組織を識別するために,トランスフォーマーブロックを用いた融合モジュールを用いたu-netアーキテクチャを用いたディープラーニングネットワークフレームワークを開発した。
各モダリティの特徴マップを独立に活用し、各モダリティ情報を交叉モダリティ相互作用に利用することにより、非侵襲的な術中神経同定を可能にするためのイメージングシステムの有効性をさらに高めるソリューションを提供することを目標とする。
関連論文リスト
- Disentangled Multimodal Brain MR Image Translation via Transformer-based
Modality Infuser [12.402947207350394]
マルチモーダル脳MR画像の合成を目的としたトランスフォーマーを用いたモダリティインジェクタを提案する。
本手法では,エンコーダからモダリティに依存しない特徴を抽出し,その特徴をモダリティ固有の特徴に変換する。
われわれはBraTS 2018データセットで4つのMRモードを変換する実験を行った。
論文 参考訳(メタデータ) (2024-02-01T06:34:35Z) - Alzheimer's Disease Prediction via Brain Structural-Functional Deep
Fusing Network [5.945843237682432]
機能的および構造的情報を融合するために, クロスモーダルトランスフォーマー生成対向ネットワーク (CT-GAN) を提案する。
生成した接続特性を解析することにより,AD関連脳の接続を同定することができる。
パブリックADNIデータセットの評価から,提案したCT-GANは予測性能を劇的に向上し,AD関連脳領域を効果的に検出できることが示された。
論文 参考訳(メタデータ) (2023-09-28T07:06:42Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - Scale-aware Super-resolution Network with Dual Affinity Learning for
Lesion Segmentation from Medical Images [50.76668288066681]
低解像度医用画像から様々な大きさの病変を適応的に分割する,スケールアウェアな超解像ネットワークを提案する。
提案するネットワークは,他の最先端手法と比較して一貫した改善を実現した。
論文 参考訳(メタデータ) (2023-05-30T14:25:55Z) - MedViT: A Robust Vision Transformer for Generalized Medical Image
Classification [4.471084427623774]
我々は,CNNの局所性と視覚変換器のグローバル接続性を備えた,頑健で効率的なCNN-Transformerハイブリッドモデルを提案する。
提案したハイブリッドモデルは,MedMNIST-2Dデータセットの大規模コレクションに関する最先端の研究と比較して,高い堅牢性と一般化能力を示す。
論文 参考訳(メタデータ) (2023-02-19T02:55:45Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - Cross-Modal Transformer GAN: A Brain Structure-Function Deep Fusing
Framework for Alzheimer's Disease [5.608783790624866]
異なる種類の神経画像データの相互融合は、アルツハイマー病(AD)の進行を予測する大きな可能性を示している
本研究では, 静止機能型磁気共鳴画像(rs-fMRI)に含まれる機能情報と拡散イメージング(DTI)に含まれる構造情報を融合するために, クロスモーダルトランスフォーマ生成逆数ネットワーク(CT-GAN)を提案する。
提案モデルでは,分類性能の向上だけでなく,AD関連脳の接続性も効果的に検出できる。
論文 参考訳(メタデータ) (2022-06-20T11:38:55Z) - Cross-Modality Neuroimage Synthesis: A Survey [71.27193056354741]
マルチモダリティイメージングは、疾患の診断を改善し、解剖学的特性を持つ組織における相違を明らかにする。
完全な整列とペアの多モードニューロイメージングデータの存在は、脳研究においてその効果を証明している。
もう一つの解決策は、教師なしまたは弱教師なしの学習方法を探究し、欠落した神経画像データを合成することである。
論文 参考訳(メタデータ) (2022-02-14T19:29:08Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - ResViT: Residual vision transformers for multi-modal medical image
synthesis [0.0]
本稿では、畳み込み演算子の局所的精度と視覚変換器の文脈的感度を組み合わせ、医用画像合成のための新しい生成逆変換手法ResViTを提案する。
以上の結果から,ResViTと競合する手法の質的観察と定量化の両面での優位性が示唆された。
論文 参考訳(メタデータ) (2021-06-30T12:57:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。