論文の概要: ContraReg: Contrastive Learning of Multi-modality Unsupervised
Deformable Image Registration
- arxiv url: http://arxiv.org/abs/2206.13434v1
- Date: Mon, 27 Jun 2022 16:27:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 13:59:48.389535
- Title: ContraReg: Contrastive Learning of Multi-modality Unsupervised
Deformable Image Registration
- Title(参考訳): ContraReg: マルチモダリティ非教師付きデフォルマブル画像登録のコントラスト学習
- Authors: Neel Dey, Jo Schlemper, Seyed Sadegh Mohseni Salehi, Bo Zhou, Guido
Gerig, Michal Sofka
- Abstract要約: この研究は、マルチモーダル変形可能な登録のための教師なしコントラスト表現学習手法であるContraRegを提示する。
学習したマルチスケールなローカルパッチ機能をドメイン間埋め込み空間に投影することにより、ContraRegは非厳密なマルチモードアライメントに有用な表現を得る。
実験的に、ContraRegは、新生児T1-T2脳MRI登録タスクにおいて、一連のベースラインにわたる滑らかで非可逆的な変形を伴う正確で堅牢な結果を達成する。
- 参考スコア(独自算出の注目度): 8.602552627077056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Establishing voxelwise semantic correspondence across distinct imaging
modalities is a foundational yet formidable computer vision task. Current
multi-modality registration techniques maximize hand-crafted inter-domain
similarity functions, are limited in modeling nonlinear intensity-relationships
and deformations, and may require significant re-engineering or underperform on
new tasks, datasets, and domain pairs. This work presents ContraReg, an
unsupervised contrastive representation learning approach to multi-modality
deformable registration. By projecting learned multi-scale local patch features
onto a jointly learned inter-domain embedding space, ContraReg obtains
representations useful for non-rigid multi-modality alignment. Experimentally,
ContraReg achieves accurate and robust results with smooth and invertible
deformations across a series of baselines and ablations on a neonatal T1-T2
brain MRI registration task with all methods validated over a wide range of
deformation regularization strengths.
- Abstract(参考訳): 異なる画像モダリティにまたがってボクセルワイズな意味対応を確立することは、基本的なコンピュータビジョンタスクである。
現在の多モード登録技術は、手作りのドメイン間類似度関数を最大化し、非線形強度関係と変形のモデリングに制限され、新しいタスク、データセット、ドメインペアの大幅な再設計やアンダーパフォーマンスを必要とする可能性がある。
本稿では,マルチモダリティ変形可能な登録に対する教師なしコントラスト表現学習手法であるcontraregを提案する。
学習したマルチスケールなローカルパッチ機能をドメイン間埋め込み空間に投影することにより、ContraRegは非厳密なマルチモードアライメントに有用な表現を得る。
実験的に、ContraRegは、一連のベースラインにわたる滑らかで非可逆的な変形と新生児T1-T2脳MRI登録タスクにおけるアブレーションを、幅広い変形規則化強度で検証した全ての方法を用いて、正確で堅牢な結果を達成する。
関連論文リスト
- Towards Self-Supervised FG-SBIR with Unified Sample Feature Alignment and Multi-Scale Token Recycling [11.129453244307369]
FG-SBIRは、埋め込み空間におけるスケッチと対応する画像の距離を最小化することを目的としている。
両領域間のギャップを狭める効果的なアプローチを提案する。
主に、イントラサンプルとインターサンプルの両方を共有する統一的な相互情報共有を促進する。
論文 参考訳(メタデータ) (2024-06-17T13:49:12Z) - Improving Misaligned Multi-modality Image Fusion with One-stage
Progressive Dense Registration [67.23451452670282]
多モード画像間の相違は、画像融合の課題を引き起こす。
マルチスケールプログレッシブ・センス・レジストレーション方式を提案する。
このスキームは、一段階最適化のみで粗大な登録を行う。
論文 参考訳(メタデータ) (2023-08-22T03:46:24Z) - UniDiff: Advancing Vision-Language Models with Generative and
Discriminative Learning [86.91893533388628]
本稿では、画像テキストコントラスト学習(ITC)、テキスト条件付き画像合成学習(IS)、相互意味整合性モデリング(RSC)を統合した統合マルチモーダルモデルUniDiffを提案する。
UniDiffはマルチモーダル理解と生成タスクの両方において汎用性を示す。
論文 参考訳(メタデータ) (2023-06-01T15:39:38Z) - Breaking Modality Disparity: Harmonized Representation for Infrared and
Visible Image Registration [66.33746403815283]
シーン適応型赤外線と可視画像の登録を提案する。
我々は、異なる平面間の変形をシミュレートするためにホモグラフィーを用いる。
我々は、まず、赤外線と可視画像のデータセットが不一致であることを示す。
論文 参考訳(メタデータ) (2023-04-12T06:49:56Z) - Deformer: Towards Displacement Field Learning for Unsupervised Medical
Image Registration [28.358693013757865]
本稿では,デフォルマブル画像登録タスクのためのマルチスケールフレームワークとともに,新しいデフォルマモジュールを提案する。
Deformerモジュールは、画像表現から空間変換へのマッピングを容易にするように設計されている。
粗い粒度で変位場を予測するマルチスケールの枠組みにより、優れた性能が得られる。
論文 参考訳(メタデータ) (2022-07-07T09:14:40Z) - Transformer-empowered Multi-scale Contextual Matching and Aggregation
for Multi-contrast MRI Super-resolution [55.52779466954026]
マルチコントラスト・スーパーレゾリューション (SR) 再構成により, SR画像の高画質化が期待できる。
既存の手法では、これらの特徴をマッチングし、融合させる効果的なメカニズムが欠如している。
そこで本稿では,トランスフォーマーを利用したマルチスケールコンテキストマッチングとアグリゲーション技術を開発することで,これらの問題を解決する新しいネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T01:42:59Z) - Unsupervised Multimodal Image Registration with Adaptative Gradient
Guidance [23.461130560414805]
教師なし学習に基づく手法は、変形可能な画像登録における精度と効率よりも有望な性能を示す。
既存の手法の予測変形場は、登録済み画像対に完全に依存する。
両モデルから推定される変形場を利用する新しい多モード登録フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T05:47:20Z) - Unimodal Cyclic Regularization for Training Multimodal Image
Registration Networks [22.94932232413841]
そこで本研究では,より単純な一元的登録からタスク固有の事前知識を学習する一元的循環正規化学習パイプラインを提案する。
腹部CT-MRレジストレーション実験では,従来の正規化法よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-11-12T05:37:30Z) - TSIT: A Simple and Versatile Framework for Image-to-Image Translation [103.92203013154403]
画像間翻訳のためのシンプルで多用途なフレームワークを提案する。
新たに提案した特徴変換を用いた2ストリーム生成モデルを提案する。
これにより、マルチスケールのセマンティック構造情報とスタイル表現を効果的に捕捉し、ネットワークに融合させることができる。
体系的な研究は、提案手法をいくつかの最先端タスク固有のベースラインと比較し、知覚的品質と定量的評価の両面での有効性を検証する。
論文 参考訳(メタデータ) (2020-07-23T15:34:06Z) - CoMIR: Contrastive Multimodal Image Representation for Registration [4.543268895439618]
我々は,CoMIR(Contrastive Multimodal Image Representations)と呼ばれる,共有された高密度画像表現を学習するためのコントラスト符号化を提案する。
CoMIRは、十分に類似した画像構造が欠如しているため、既存の登録方法がしばしば失敗するマルチモーダル画像の登録を可能にする。
論文 参考訳(メタデータ) (2020-06-11T10:51:33Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。