論文の概要: FOD-Swin-Net: angular super resolution of fiber orientation distribution
using a transformer-based deep model
- arxiv url: http://arxiv.org/abs/2402.11775v1
- Date: Mon, 19 Feb 2024 02:07:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 18:55:09.431514
- Title: FOD-Swin-Net: angular super resolution of fiber orientation distribution
using a transformer-based deep model
- Title(参考訳): fod-swin-net: トランスベース深層モデルによる繊維配向分布の角超解像
- Authors: Mateus Oliveira da Silva, Caio Pinheiro Santana, Diedre Santos do
Carmo, Let\'icia Rittner
- Abstract要約: 我々は、繊維配向分布(FOD)における角超解像を実現するために、トランスフォーマーに基づくディープラーニングアーキテクチャを訓練する。
パッチベースの手法であるFOD-Swin-Netは、32方向から駆動される単一シェル再構成を、複数シェル288方向のFOD再構成に匹敵するものにすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying and characterizing brain fiber bundles can help to understand
many diseases and conditions. An important step in this process is the
estimation of fiber orientations using Diffusion-Weighted Magnetic Resonance
Imaging (DW-MRI). However, obtaining robust orientation estimates demands
high-resolution data, leading to lengthy acquisitions that are not always
clinically available. In this work, we explore the use of automated angular
super resolution from faster acquisitions to overcome this challenge. Using the
publicly available Human Connectome Project (HCP) DW-MRI data, we trained a
transformer-based deep learning architecture to achieve angular super
resolution in fiber orientation distribution (FOD). Our patch-based
methodology, FOD-Swin-Net, is able to bring a single-shell reconstruction
driven from 32 directions to be comparable to a multi-shell 288 direction FOD
reconstruction, greatly reducing the number of required directions on initial
acquisition. Evaluations of the reconstructed FOD with Angular Correlation
Coefficient and qualitative visualizations reveal superior performance than the
state-of-the-art in HCP testing data. Open source code for reproducibility is
available at https://github.com/MICLab-Unicamp/FOD-Swin-Net.
- Abstract(参考訳): 脳線維束の同定と特徴付けは多くの疾患や病態を理解するのに役立つ。
このプロセスの重要なステップは、拡散重み付け磁気共鳴イメージング(DW-MRI)を用いた繊維配向の推定である。
しかし、ロバストな配向推定値を得るには高解像度のデータが必要であり、必ずしも臨床的に利用できない長い買収につながる。
本研究では,この課題を克服するために,高速な取得から自動角化超解法を用いることを検討する。
我々は,Human Connectome Project (HCP) DW-MRIデータを用いて,繊維配向分布(FOD)における角超解像を実現するために,トランスフォーマーに基づくディープラーニングアーキテクチャを訓練した。
パッチベースの手法であるFOD-Swin-Netは、32方向から駆動される単一シェル再構成を複数シェル288方向のFOD再構成に匹敵するように実現し、初期取得に必要な方向の数を大幅に削減できる。
角相関係数と定性的可視化による再構成fodの評価は, hcp試験データにおいて, 最新技術よりも優れた性能を示す。
再現性のためのオープンソースコードはhttps://github.com/MICLab-Unicamp/FOD-Swin-Netで公開されている。
関連論文リスト
- Recovering high-quality FODs from a reduced number of diffusion-weighted
images using a model-driven deep learning architecture [0.0]
モデル駆動型深層学習FOD再構成アーキテクチャを提案する。
ネットワークが生成する中間および出力FODが、入力されたDWI信号と一致していることを保証する。
モデルに基づくディープラーニングアーキテクチャは,最先端のFOD超解像ネットワークであるFOD-Netと比較して,競争性能が向上することを示す。
論文 参考訳(メタデータ) (2023-07-28T02:47:34Z) - One-Dimensional Deep Image Prior for Curve Fitting of S-Parameters from
Electromagnetic Solvers [57.441926088870325]
Deep Image Prior(ディープ・イメージ・プライオリ、ディープ・イメージ・プライオリ、DIP)は、ランダムなd畳み込みニューラルネットワークの重みを最適化し、ノイズや過度な測定値からの信号に適合させる技術である。
本稿では,Vector Fitting (VF) の実装に対して,ほぼすべてのテスト例において優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-06T20:28:37Z) - Lightweight Monocular Depth Estimation with an Edge Guided Network [34.03711454383413]
本稿では,新しいエッジガイド深度推定ネットワーク(EGD-Net)を提案する。
特に、軽量なエンコーダデコーダアーキテクチャから始め、エッジガイダンスブランチを組み込む。
コンテクスト情報とエッジアテンション特徴を集約するために,トランスフォーマーをベースとした機能アグリゲーションモジュールを設計する。
論文 参考訳(メタデータ) (2022-09-29T14:45:47Z) - Pyramid Grafting Network for One-Stage High Resolution Saliency
Detection [29.013012579688347]
我々は、異なる解像度画像から特徴を独立して抽出する、Praamid Grafting Network (PGNet) と呼ばれるワンステージフレームワークを提案する。
CNNブランチが壊れた詳細情報をよりホモロジーに組み合わせられるように、アテンションベースのクロスモデルグラフティングモジュール (CMGM) が提案されている。
我々は,4K-8K解像度で5,920個の画像を含む超高分解能塩度検出データセットUHRSDを新たに提供した。
論文 参考訳(メタデータ) (2022-04-11T12:22:21Z) - HiMODE: A Hybrid Monocular Omnidirectional Depth Estimation Model [3.5290359800552946]
HiMODE は CNN+ Transformer アーキテクチャに基づく新しい単分子全方位深度推定モデルである。
360deg単分子深度推定において,HiMODEは最先端の性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-04-11T11:11:43Z) - Cross-Modality High-Frequency Transformer for MR Image Super-Resolution [100.50972513285598]
我々はTransformerベースのMR画像超解像フレームワークを構築するための初期の取り組みを構築した。
我々は、高周波構造とモード間コンテキストを含む2つの領域先行について考察する。
我々は,Cross-modality High- frequency Transformer (Cohf-T)と呼ばれる新しいTransformerアーキテクチャを構築し,低解像度画像の超解像化を実現する。
論文 参考訳(メタデータ) (2022-03-29T07:56:55Z) - DepthFormer: Exploiting Long-Range Correlation and Local Information for
Accurate Monocular Depth Estimation [50.08080424613603]
高精度な単分子深度推定には長距離相関が不可欠である。
我々は,このグローバルコンテキストを効果的な注意機構でモデル化するためにTransformerを活用することを提案する。
提案したモデルであるDepthFormerは、最先端のモノクル深度推定手法をはるかに超えている。
論文 参考訳(メタデータ) (2022-03-27T05:03:56Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - Light Field Reconstruction Using Convolutional Network on EPI and
Extended Applications [78.63280020581662]
スパースビューからの光場再構成のための新しい畳み込みニューラルネットワーク(CNN)ベースのフレームワークを開発した。
最先端のアルゴリズムと比較して,提案フレームワークの高性能と堅牢性を実証する。
論文 参考訳(メタデータ) (2021-03-24T08:16:32Z) - RetiNerveNet: Using Recursive Deep Learning to Estimate Pointwise 24-2
Visual Field Data based on Retinal Structure [109.33721060718392]
緑内障は 世界でも 不可逆的な盲目の 主要な原因です 7000万人以上が 影響を受けています
The Standard Automated Perimetry (SAP) test's innate difficulty and its high test-retest variable, we propose the RetiNerveNet。
論文 参考訳(メタデータ) (2020-10-15T03:09:08Z) - Enhancing Fiber Orientation Distributions using convolutional Neural
Networks [0.0]
商業的に取得したMRIにおけるFODの改善について学ぶ。
パッチベースの3次元畳み込みニューラルネットワーク(CNN)の評価
本手法により,シングルシェルdMRI取得プロトコル上でのCDDモデル推定が可能となる。
論文 参考訳(メタデータ) (2020-08-12T16:06:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。