論文の概要: Unsupervised Multi-Modal Image Registration via Geometry Preserving
Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2003.08073v1
- Date: Wed, 18 Mar 2020 07:21:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 10:15:18.908453
- Title: Unsupervised Multi-Modal Image Registration via Geometry Preserving
Image-to-Image Translation
- Title(参考訳): 画像から画像への変換を保存した幾何による教師なしマルチモーダル画像登録
- Authors: Moab Arar, Yiftach Ginger, Dov Danon, Ilya Leizerson, Amit Bermano,
Daniel Cohen-Or
- Abstract要約: 我々は2つの入力モダリティに基づいて画像と画像の変換ネットワークを訓練する。
この学習された翻訳により、シンプルで信頼性の高いモノモダリティメトリクスを使用して、登録ネットワークをトレーニングすることができる。
最先端のマルチモーダル手法と比較して, 提案手法は教師なしであり, 整列したモーダルのペアは必要とせず, 任意のモーダルのペアに適応できる。
- 参考スコア(独自算出の注目度): 43.060971647266236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many applications, such as autonomous driving, heavily rely on multi-modal
data where spatial alignment between the modalities is required. Most
multi-modal registration methods struggle computing the spatial correspondence
between the images using prevalent cross-modality similarity measures. In this
work, we bypass the difficulties of developing cross-modality similarity
measures, by training an image-to-image translation network on the two input
modalities. This learned translation allows training the registration network
using simple and reliable mono-modality metrics. We perform multi-modal
registration using two networks - a spatial transformation network and a
translation network. We show that by encouraging our translation network to be
geometry preserving, we manage to train an accurate spatial transformation
network. Compared to state-of-the-art multi-modal methods our presented method
is unsupervised, requiring no pairs of aligned modalities for training, and can
be adapted to any pair of modalities. We evaluate our method quantitatively and
qualitatively on commercial datasets, showing that it performs well on several
modalities and achieves accurate alignment.
- Abstract(参考訳): 自動運転のような多くの応用は、モダリティ間の空間的アライメントを必要とするマルチモーダルデータに大きく依存している。
多くのマルチモーダル登録法は、画像間の空間的対応の計算に苦慮している。
本研究では,2つの入力モダリティのイメージ・ツー・イメージ翻訳ネットワークをトレーニングすることにより,モダリティ間の類似度向上の難しさを回避する。
この学習された翻訳は、単純で信頼性の高いモノモダリティメトリクスを使用して登録ネットワークをトレーニングできる。
空間変換ネットワークと翻訳ネットワークの2つのネットワークを用いてマルチモーダル登録を行う。
我々は,翻訳ネットワークの幾何学的保存を奨励することで,正確な空間変換ネットワークをトレーニングできることを示す。
最先端のマルチモーダル手法と比較して,提案手法は教師なしであり,トレーニングにアライメントされたモーダルのペアを必要とせず,任意の対のモーダルに適応できる。
本手法は,商用データセット上で定量的・定性的に評価し,複数の形態で良好に動作し,高精度なアライメントを実現する。
関連論文リスト
- Cross-domain and Cross-dimension Learning for Image-to-Graph
Transformers [50.576354045312115]
直接画像からグラフへの変換は、単一のモデルにおけるオブジェクトの検出と関係予測を解決するための課題である。
画像-グラフ変換器のクロスドメインおよびクロス次元変換学習を可能にする一連の手法を提案する。
そこで我々は,2次元の衛星画像上でモデルを事前学習し,それを2次元および3次元の異なるターゲット領域に適用する。
論文 参考訳(メタデータ) (2024-03-11T10:48:56Z) - MAD: Modality Agnostic Distance Measure for Image Registration [14.558286801723293]
マルチモーダル画像登録は多くの医療応用において重要な前処理ステップである。
画像の固有な幾何学をランダムな畳み込みを用いて学習する手法である、Modality Agnostic Distance (MAD)を提案する。
我々は、MADがマルチモーダル画像のアフィニシャルな登録を成功させるだけでなく、従来の計測値よりも大きなキャプチャ範囲を持つことを実証した。
論文 参考訳(メタデータ) (2023-09-06T09:59:58Z) - Unsupervised Multi-Modal Medical Image Registration via
Discriminator-Free Image-to-Image Translation [4.43142018105102]
本稿では,複数モーダル登録問題をモノモーダル画像に変換するための,新しい翻訳に基づく教師なしデフォルマブル画像登録手法を提案する。
提案手法では,登録ネットワークのトレーニングを容易にするために,識別不要な翻訳ネットワークと,オブジェクトの形状を保たせるためのパッチワイドなコントラスト損失が組み込まれている。
論文 参考訳(メタデータ) (2022-04-28T17:18:21Z) - Multi-modal unsupervised brain image registration using edge maps [7.49320945341034]
本稿では,マルチモーダル画像登録手法を提案する。
この背景にある直感は、強い勾配の像の位置が組織の遷移を意味すると仮定されている。
我々は3つの異なる損失関数を用いて、異なる被験者のマルチモーダル(T1wからT2w)磁気共鳴(MR)脳画像を登録する状況において、我々のアプローチを評価する。
論文 参考訳(メタデータ) (2022-02-09T15:50:14Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - LocalTrans: A Multiscale Local Transformer Network for Cross-Resolution
Homography Estimation [52.63874513999119]
クロスレゾリューション画像アライメントは、マルチスケールギガ撮影において重要な問題である。
既存のディープ・ホモグラフィー手法は、それらの間の対応の明示的な定式化を無視し、クロスレゾリューションの課題において精度が低下する。
本稿では,マルチモーダル入力間の対応性を明確に学習するために,マルチスケール構造内に埋め込まれたローカルトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-08T02:51:45Z) - StEP: Style-based Encoder Pre-training for Multi-modal Image Synthesis [68.3787368024951]
マルチモーダルイメージ・ツー・イメージ(I2I)翻訳のための新しいアプローチを提案する。
我々は、出力領域の可変性をモデル化する潜伏埋め込みをジェネレータと共同で学習する。
具体的には、新しいプロキシタスクを用いて汎用的なスタイルエンコーダを事前訓練し、任意のドメインから低次元のスタイル潜在空間への画像の埋め込みを学習する。
論文 参考訳(メタデータ) (2021-04-14T19:58:24Z) - Is Image-to-Image Translation the Panacea for Multimodal Image
Registration? A Comparative Study [4.00906288611816]
マルチモーダルバイオメディカル画像登録作業における現代i2i翻訳法の適用性に関する実証研究を行った。
4つのGAN(Generative Adrial Network)ベースの方法と1つのコントラスト表現学習方法のパフォーマンスを比較します。
その結果,I2I翻訳は,登録対象のモダリティが明確に相関している場合には有用であるが,I2I翻訳手法では明らかに異なる特性を示すモダリティの登録が不十分であることが示唆された。
論文 参考訳(メタデータ) (2021-03-30T11:28:21Z) - TSIT: A Simple and Versatile Framework for Image-to-Image Translation [103.92203013154403]
画像間翻訳のためのシンプルで多用途なフレームワークを提案する。
新たに提案した特徴変換を用いた2ストリーム生成モデルを提案する。
これにより、マルチスケールのセマンティック構造情報とスタイル表現を効果的に捕捉し、ネットワークに融合させることができる。
体系的な研究は、提案手法をいくつかの最先端タスク固有のベースラインと比較し、知覚的品質と定量的評価の両面での有効性を検証する。
論文 参考訳(メタデータ) (2020-07-23T15:34:06Z) - Adversarial Uni- and Multi-modal Stream Networks for Multimodal Image
Registration [20.637787406888478]
CT画像とMR画像との変形性画像登録は多くの画像誘導療法において不可欠である。
本稿では,新しい翻訳に基づく教師なしデフォルマブル画像登録手法を提案する。
本手法は2つの臨床データセットで評価され,最先端の従来法と学習法と比較して有望な結果が得られた。
論文 参考訳(メタデータ) (2020-07-06T14:44:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。