論文の概要: Bayesian intrinsic groupwise registration via explicit hierarchical
disentanglement
- arxiv url: http://arxiv.org/abs/2206.02377v1
- Date: Mon, 6 Jun 2022 06:13:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 16:13:19.235385
- Title: Bayesian intrinsic groupwise registration via explicit hierarchical
disentanglement
- Title(参考訳): 明示的階層的絡み合いによるベイズ固有の集団登録
- Authors: Xin Wang, Xinzhe Luo, Xiahai Zhuang
- Abstract要約: 階層的ベイズ推論の手順としてグループ登録を定式化する一般的な枠組みを提案する。
本稿では, 共用構造表現の共用学習を容易にする, 後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後・後
その結果,マルチモーダルなグループ登録をエンドツーエンドで実現するためのフレームワークの有効性が示された。
- 参考スコア(独自算出の注目度): 18.374535632681884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous methods on multimodal groupwise registration typically require
certain highly specialized similarity metrics with restrained applicability. In
this work, we instead propose a general framework which formulates groupwise
registration as a procedure of hierarchical Bayesian inference. Here, the
imaging process of multimodal medical images, including shape transition and
appearance variation, is characterized by a disentangled variational
auto-encoder. To this end, we propose a novel variational posterior and network
architecture that facilitate joint learning of the common structural
representation and the desired spatial correspondences. The performance of the
proposed model was validated on two publicly available multimodal datasets,
i.e., BrainWeb and MS-CMR of the heart. Results have demonstrated the efficacy
of our framework in realizing multimodal groupwise registration in an
end-to-end fashion.
- Abstract(参考訳): マルチモーダルなグループワイズ登録の以前の方法は、通常、制限された適用可能性を持つ特定の高度に特殊な類似度メトリクスを必要とする。
本研究では,階層ベイズ推定の手順としてグループワイズ登録を定式化する汎用フレームワークを提案する。
ここで、形状遷移や外観変化を含むマルチモーダル医用画像の撮像過程は、異方性可変オートエンコーダによって特徴づけられる。
そこで本研究では,共用構造表現と所望の空間対応の共用学習を容易にする,新しい変分後・ネットワークアーキテクチャを提案する。
提案モデルの性能を2つの公開マルチモーダルデータセット、すなわち心臓のBrainWebとMS-CMRで検証した。
その結果,マルチモーダルなグループ登録をエンドツーエンドで実現するためのフレームワークの有効性が示された。
関連論文リスト
- Bayesian Intrinsic Groupwise Image Registration: Unsupervised
Disentanglement of Anatomy and Geometry [53.645443644821306]
本稿では,医用画像の集団登録のための一般ベイズ学習フレームワークを提案する。
本稿では,潜在変数の推論手順を実現するために,新しい階層的変分自動符号化アーキテクチャを提案する。
心臓、脳、腹部の医療画像から得られた4つのデータセットを含む,提案された枠組みを検証する実験を行った。
論文 参考訳(メタデータ) (2024-01-04T08:46:39Z) - Diagonal Hierarchical Consistency Learning for Semi-supervised Medical
Image Segmentation [0.0]
対角的階層的整合学習(DiHC-Net)を用いた半教師付き医用画像セグメンテーションのための新しい枠組みを提案する。
同一のマルチスケールアーキテクチャを持つが、アップサンプリング層や正規化層のような異なるサブレイヤを持つ複数のサブモデルで構成されている。
一連の実験により、我々の単純なフレームワークの有効性が検証され、臓器と腫瘍に関する公開ベンチマークデータセットにおける以前のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2023-11-10T12:38:16Z) - Unified Multi-modal Unsupervised Representation Learning for
Skeleton-based Action Understanding [62.70450216120704]
教師なしの事前訓練は骨格に基づく行動理解において大きな成功を収めた。
我々はUmURLと呼ばれる統一マルチモーダル非教師なし表現学習フレームワークを提案する。
UmURLは効率的な早期融合戦略を利用して、マルチモーダル機能を単一ストリームで共同でエンコードする。
論文 参考訳(メタデータ) (2023-11-06T13:56:57Z) - A Simple and Robust Framework for Cross-Modality Medical Image
Segmentation applied to Vision Transformers [0.0]
単一条件モデルを用いて複数モードの公平な画像分割を実現するための簡単なフレームワークを提案する。
本研究の枠組みは,マルチモーダル全心条件課題において,他のモダリティセグメンテーション手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-09T09:51:44Z) - Unified Frequency-Assisted Transformer Framework for Detecting and
Grounding Multi-Modal Manipulation [109.1912721224697]
本稿では、DGM4問題に対処するため、UFAFormerという名前のUnified Frequency-Assisted TransFormerフレームワークを提案する。
離散ウェーブレット変換を利用して、画像を複数の周波数サブバンドに分解し、リッチな顔偽造品をキャプチャする。
提案する周波数エンコーダは、帯域内およびバンド間自己アテンションを組み込んだもので、多種多様なサブバンド内および多種多様なフォージェリー特徴を明示的に集約する。
論文 参考訳(メタデータ) (2023-09-18T11:06:42Z) - DISA: DIfferentiable Similarity Approximation for Universal Multimodal
Registration [39.44133108254786]
表現力のあるクロスモーダル記述子を作成するための汎用フレームワークを提案する。
私たちは、小さな畳み込みニューラルネットワークの特徴空間において、既存のメトリクスをドット積で近似することで、これを実現する。
本手法は局所的なパッチベースの指標よりも数桁高速であり,臨床現場で直接適用することができる。
論文 参考訳(メタデータ) (2023-07-19T12:12:17Z) - Understanding and Constructing Latent Modality Structures in Multi-modal
Representation Learning [53.68371566336254]
優れたパフォーマンスの鍵は、完全なモダリティアライメントではなく、有意義な潜在モダリティ構造にある、と我々は主張する。
具体的には,1)モダリティ内正規化のための深い特徴分離損失,2)モダリティ間正規化のためのブラウン橋損失,3)モダリティ内正規化およびモダリティ間正規化のための幾何学的整合損失を設計する。
論文 参考訳(メタデータ) (2023-03-10T14:38:49Z) - A Novel Unified Conditional Score-based Generative Framework for
Multi-modal Medical Image Completion [54.512440195060584]
我々は、スコアベース生成モデル(SGM)を活用するために、統一多モードスコアベース生成モデル(UMM-CSGM)を提案する。
UMM-CSGMは、新しいマルチインマルチアウトコンディションスコアネットワーク(mm-CSN)を用いて、クロスモーダル条件分布の包括的集合を学習する。
BraTS19データセットの実験により、UMM-CSGMは腫瘍誘発病変における不均一な増強と不規則な領域をより確実に合成できることが示された。
論文 参考訳(メタデータ) (2022-07-07T16:57:21Z) - MvMM-RegNet: A new image registration framework based on multivariate
mixture model and neural network estimation [14.36896617430302]
生成モデル(MvMM)とニューラルネットワーク推定に基づく新しい画像登録フレームワークを提案する。
外観と解剖情報を一体化した生成モデルを構築し、グループ登録が可能な新規な損失関数を導出する。
マルチモーダル心画像への様々な応用のためのフレームワークの汎用性を強調した。
論文 参考訳(メタデータ) (2020-06-28T11:19:15Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。