論文の概要: Manifold-aware Synthesis of High-resolution Diffusion from Structural
Imaging
- arxiv url: http://arxiv.org/abs/2108.04135v2
- Date: Wed, 11 Aug 2021 21:30:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-13 12:04:32.899022
- Title: Manifold-aware Synthesis of High-resolution Diffusion from Structural
Imaging
- Title(参考訳): 構造イメージングによる高分解能拡散のマニホールド・アウェア合成
- Authors: Benoit Anctil-Robitaille and Antoine Th\'eberge and Pierre-Marc Jodoin
and Maxime Descoteaux and Christian Desrosiers and Herv\'e Lombaert
- Abstract要約: 本稿では,高分解能T1w画像からの拡散テンソル(DT)と拡散配向分布関数(dODF)の直接生成のためのネットワークアーキテクチャを提案する。
提案手法は,合成拡散と接地トラス間の分数異方性平均二乗誤差(FA MSE)を23%以上改善する。
構造入力から15秒以内で高分解能拡散画像を生成することができるが,T1w画像のみに依存する拡散推定の限界を認識し,議論する。
- 参考スコア(独自算出の注目度): 12.96280888284293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The physical and clinical constraints surrounding diffusion-weighted imaging
(DWI) often limit the spatial resolution of the produced images to voxels up to
8 times larger than those of T1w images. Thus, the detailed information
contained in T1w imagescould help in the synthesis of diffusion images in
higher resolution. However, the non-Euclidean nature of diffusion imaging
hinders current deep generative models from synthesizing physically plausible
images. In this work, we propose the first Riemannian network architecture for
the direct generation of diffusion tensors (DT) and diffusion orientation
distribution functions (dODFs) from high-resolution T1w images. Our integration
of the Log-Euclidean Metric into a learning objective guarantees, unlike
standard Euclidean networks, the mathematically-valid synthesis of diffusion.
Furthermore, our approach improves the fractional anisotropy mean squared error
(FA MSE) between the synthesized diffusion and the ground-truth by more than
23% and the cosine similarity between principal directions by almost 5% when
compared to our baselines. We validate our generated diffusion by comparing the
resulting tractograms to our expected real data. We observe similar fiber
bundles with streamlines having less than 3% difference in length, less than 1%
difference in volume, and a visually close shape. While our method is able to
generate high-resolution diffusion images from structural inputs in less than
15 seconds, we acknowledge and discuss the limits of diffusion inference solely
relying on T1w images. Our results nonetheless suggest a relationship between
the high-level geometry of the brain and the overall white matter architecture.
- Abstract(参考訳): 拡散強調画像(DWI)を取り巻く物理的および臨床的制約はしばしば、生成された画像の空間解像度を、T1w画像の最大8倍のボクセルに制限する。
したがって、T1w画像に含まれる詳細な情報は、高解像度の拡散画像の合成に役立つ。
しかし、拡散イメージングの非ユークリッド的性質は、物理的に有理な画像の合成から現在の深層生成モデルを妨げる。
本研究では,高分解能T1w画像から拡散テンソル(DT)と拡散配向分布関数(DODF)を直接生成するための最初のリーマンネットワークアーキテクチャを提案する。
標準ユークリッドネットワークとは異なり、対数ユークリッド計量の学習目的への統合は、拡散の数学的に有価な合成である。
さらに,本手法は,合成拡散と接地トラス間の分数異方性平均二乗誤差(FA MSE)を23%以上改善し,主方向のコサイン類似度をベースラインと比較して約5%改善する。
その結果を実データと比較することにより,生成した拡散の検証を行った。
類似した繊維束を観察し, 長さが3%未満, 体積が1%未満, 視覚的に近い形状の流線を観察した。
構造入力から15秒以内で高分解能拡散画像を生成することができるが,T1w画像のみに依存する拡散推定の限界を認識し,議論する。
以上の結果から,脳の高次構造と全体ホワイトマターアーキテクチャとの関係が示唆された。
関連論文リスト
- Edge-preserving noise for diffusion models [4.435514696080208]
本稿では,拡散確率モデル(DDPM)を一般化した新しいエッジ保存拡散モデルを提案する。
特に、エッジ保存と等方性ガウスノイズの間で異なるエッジ対応ノイズスケジューラを導入する。
モデルの生成過程はより高速に収束し, 対象の分布とより密に一致していることを示す。
論文 参考訳(メタデータ) (2024-10-02T13:29:52Z) - Towards Detailed Text-to-Motion Synthesis via Basic-to-Advanced
Hierarchical Diffusion Model [60.27825196999742]
本稿では,B2A-HDMと呼ばれる新しい階層型拡散モデルを提案する。
特に、低次元ラテント空間における基本拡散モデルは、テキスト記述と整合した中間偏微分結果を与える。
高次元ラテント空間における高度な拡散モデルは、以下の詳細エンハンス・デノナイジング過程に焦点をあてる。
論文 参考訳(メタデータ) (2023-12-18T06:30:39Z) - SAR-to-Optical Image Translation via Thermodynamics-inspired Network [68.71771171637677]
本稿では,SAR-to-Optical Image Translation (S2O-TDN) のための熱力学インスピレーションネットワークを提案する。
S2O-TDNは熱力学理論から導かれた明示的な設計原理に従い、説明可能性の利点を享受する。
公的なSEN1-2データセットの実験は、より繊細なテクスチャとより定量的な結果を持つ現在の手法よりも提案されたS2O-TDNの利点を示している。
論文 参考訳(メタデータ) (2023-05-23T09:02:33Z) - High-resolution tomographic reconstruction of optical absorbance through
scattering media using neural fields [25.647287240640356]
ニューラルネットワーク(NF)に基づく新しいDOT方式であるNeuDOTを提案する。
NeuDOTは、サブミリメートルの側方分解能を達成し、14mmの深さで複雑な3Dオブジェクトを分解し、最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-04-04T10:13:13Z) - Diffusion Models Generate Images Like Painters: an Analytical Theory of Outline First, Details Later [1.8416014644193066]
画像生成の基盤となる逆拡散過程には,以下の特性がある。
個々の軌道は低次元であり、2次元回転に似ている」。
本手法は,事前学習したモデルに対する画像生成の初期フェーズを正確に記述する。
論文 参考訳(メタデータ) (2023-03-04T20:08:57Z) - Diffusion Models are Minimax Optimal Distribution Estimators [49.47503258639454]
拡散モデリングの近似と一般化能力について、初めて厳密な分析を行った。
実密度関数がベソフ空間に属し、経験値整合損失が適切に最小化されている場合、生成したデータ分布は、ほぼ最小の最適推定値が得られることを示す。
論文 参考訳(メタデータ) (2023-03-03T11:31:55Z) - Dimensionality-Varying Diffusion Process [52.52681373641533]
拡散モデルは、信号破壊プロセスを逆転して新しいデータを生成することを学習する。
信号分解による前方拡散過程の理論的一般化を行う。
FFHQで訓練された拡散モデルのFIDを,52.40から10.46までの1024Times1024$解像度で改善する。
論文 参考訳(メタデータ) (2022-11-29T09:05:55Z) - SinDiffusion: Learning a Diffusion Model from a Single Natural Image [159.4285444680301]
SinDiffusionは1つの自然な画像からパッチの内部分布を捉えるためにデノナイズ拡散モデルを利用する。
SinDiffusionは、2つのコア設計に基づいている。まず、SinDiffusionは、段階的にスケールが成長する複数のモデルではなく、1つのスケールで1つのモデルで訓練されている。
第2に,拡散ネットワークのパッチレベルの受容領域は,画像のパッチ統計を捉える上で重要かつ効果的であることを示す。
論文 参考訳(メタデータ) (2022-11-22T18:00:03Z) - Unifying Diffusion Models' Latent Space, with Applications to
CycleDiffusion and Guidance [95.12230117950232]
関係領域で独立に訓練された2つの拡散モデルから共通潜時空間が現れることを示す。
テキスト・画像拡散モデルにCycleDiffusionを適用することで、大規模なテキスト・画像拡散モデルがゼロショット画像・画像拡散エディタとして使用できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:53:52Z) - Manifold-Aware CycleGAN for High-Resolution Structural-to-DTI Synthesis [8.829738147738222]
本稿では,T1w画像から高分解能DTIの生成を学習する多様体対応CycleGANを提案する。
提案手法は,拡散測定値の計算やファイバトラクトグラフィーアルゴリズムの実行に使用可能な,現実的な高分解能DTIを生成することができる。
論文 参考訳(メタデータ) (2020-04-01T00:08:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。