論文の概要: Adaptive Conditional Contrast-Agnostic Deformable Image Registration with Uncertainty Estimation
- arxiv url: http://arxiv.org/abs/2601.05981v1
- Date: Fri, 09 Jan 2026 18:00:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:50.062429
- Title: Adaptive Conditional Contrast-Agnostic Deformable Image Registration with Uncertainty Estimation
- Title(参考訳): 不確実性推定による適応的コントラスト非依存的画像登録
- Authors: Yinsong Wang, Xinzhe Luo, Siyi Du, Chen Qin,
- Abstract要約: ランダムな畳み込みに基づくコントラスト拡張方式に基づく適応型条件付きコントラスト非依存型画像登録フレームワーク(AC-CAR)を提案する。
AC-CARは、訓練中に観察することなく任意の画像コントラストに一般化することができる。
我々は,分散ネットワークを統合することで,コントラストに依存しない登録の不確実性を実現する。
- 参考スコア(独自算出の注目度): 10.687663039957336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deformable multi-contrast image registration is a challenging yet crucial task due to the complex, non-linear intensity relationships across different imaging contrasts. Conventional registration methods typically rely on iterative optimization of the deformation field, which is time-consuming. Although recent learning-based approaches enable fast and accurate registration during inference, their generalizability remains limited to the specific contrasts observed during training. In this work, we propose an adaptive conditional contrast-agnostic deformable image registration framework (AC-CAR) based on a random convolution-based contrast augmentation scheme. AC-CAR can generalize to arbitrary imaging contrasts without observing them during training. To encourage contrast-invariant feature learning, we propose an adaptive conditional feature modulator (ACFM) that adaptively modulates the features and the contrast-invariant latent regularization to enforce the consistency of the learned feature across different imaging contrasts. Additionally, we enable our framework to provide contrast-agnostic registration uncertainty by integrating a variance network that leverages the contrast-agnostic registration encoder to improve the trustworthiness and reliability of AC-CAR. Experimental results demonstrate that AC-CAR outperforms baseline methods in registration accuracy and exhibits superior generalization to unseen imaging contrasts. Code is available at https://github.com/Yinsong0510/AC-CAR.
- Abstract(参考訳): 変形可能なマルチコントラスト画像登録は、異なる画像コントラスト間の複雑な非線形強度関係のため、難しいが重要な課題である。
従来の登録法は通常、時間を要する変形場を反復的に最適化することに依存する。
最近の学習に基づくアプローチは推論中に高速かつ正確な登録を可能にするが、その一般化性はトレーニング中に観察される特定のコントラストに限られる。
本研究では,ランダムな畳み込みに基づくコントラスト拡張方式に基づく適応型条件付きコントラスト非依存型画像登録フレームワーク(AC-CAR)を提案する。
AC-CARは、訓練中に観察することなく任意の画像コントラストに一般化することができる。
コントラスト不変な特徴学習を促進するために,コントラスト不変な特徴量正規化を適応的に調整し,異なるコントラスト間で学習した特徴量の一貫性を強制する適応型条件付き特徴量変調器 (ACFM) を提案する。
さらに、コントラスト非依存登録エンコーダを利用した分散ネットワークを統合して、コントラスト非依存登録の不確実性を提供し、AC-CARの信頼性と信頼性を向上させる。
実験結果から,AC-CARはベースライン法よりも精度が高く,画像のコントラストに優れることが示された。
コードはhttps://github.com/Yinsong0510/AC-CARで入手できる。
関連論文リスト
- Robust image representations with counterfactual contrastive learning [17.273155534515393]
因果画像合成の最近の進歩を生かした新しいフレームワークである反ファクト・コントラスト学習を導入する。
提案手法は,5つのデータセットで評価され,獲得シフトに対するロバスト性の観点から,標準的なコントラスト学習よりも優れていた。
さらなる実験により、提案フレームワークは、生物学的性間のサブグループ格差を減少させる対実的コントラスト学習で訓練されたモデルによって、獲得シフトを超えて拡張されていることが示されている。
論文 参考訳(メタデータ) (2024-09-16T15:11:00Z) - CAR: Contrast-Agnostic Deformable Medical Image Registration with Contrast-Invariant Latent Regularization [6.313081057543946]
本稿では,任意のコントラスト画像に一般化可能な,コントラストに依存しない新しい画像登録フレームワークを提案する。
特に、画像の任意のコントラストを1つの画像コントラスト上でシミュレートするランダム畳み込みに基づくコントラスト拡張方式を提案する。
実験により、CARは登録精度に関するベースラインアプローチよりも優れており、画像のコントラストが見えないような一般化能力も優れていることが示された。
論文 参考訳(メタデータ) (2024-08-03T19:46:23Z) - Breaking Modality Disparity: Harmonized Representation for Infrared and
Visible Image Registration [66.33746403815283]
シーン適応型赤外線と可視画像の登録を提案する。
我々は、異なる平面間の変形をシミュレートするためにホモグラフィーを用いる。
我々は、まず、赤外線と可視画像のデータセットが不一致であることを示す。
論文 参考訳(メタデータ) (2023-04-12T06:49:56Z) - Refign: Align and Refine for Adaptation of Semantic Segmentation to
Adverse Conditions [78.71745819446176]
Refignは、ドメイン間の通信を利用する自己学習ベースのUDAメソッドへの汎用的な拡張である。
Refign は,(1) 不確実性を認識した高密度マッチングネットワークを用いて,正常条件画像と対応する悪条件画像とを整列させ,(2) 適応ラベル補正機構を用いて正常予測で悪条件予測を精査する。
このアプローチでは、追加のトレーニングパラメータや、トレーニングのみの計算オーバーヘッドの最小化は導入されず、任意の自己学習ベースのUDAメソッドを改善するためにドロップイン拡張として使用することができる。
論文 参考訳(メタデータ) (2022-07-14T11:30:38Z) - Contrastive Test-Time Adaptation [83.73506803142693]
本稿では,自己指導型コントラスト学習を活用して特徴学習を支援する新しい手法を提案する。
擬似ラベルをオンラインで作成し、ターゲットのフィーチャースペースに最も近い隣人の間でソフト投票によってそれらを洗練します。
我々の手法であるAdaContrastは、主要なベンチマーク上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-04-21T19:17:22Z) - Semantic similarity metrics for learned image registration [10.355938901584565]
画像登録のための意味的類似度尺度を提案する。
このアプローチは、学習に基づく登録モデルの最適化を促進するデータセット固有の特徴を学習する。
自動エンコーダを用いた非監視的アプローチと、補助セグメンテーションデータを用いた半監督的アプローチの両方をトレーニングし、画像登録のための意味的特徴を抽出します。
論文 参考訳(メタデータ) (2021-04-20T15:23:58Z) - Unleashing the Power of Contrastive Self-Supervised Visual Models via
Contrast-Regularized Fine-Tuning [94.35586521144117]
コントラスト学習を微調整に適用することでさらにメリットが得られるか検討する。
本研究では,コントラスト正規化調律(core-tuning)を提案する。
論文 参考訳(メタデータ) (2021-02-12T16:31:24Z) - DeepSim: Semantic similarity metrics for learned image registration [6.789370732159177]
画像登録のための意味的類似度尺度を提案する。
提案手法は,学習ベース登録モデルの最適化を促進する,データセット固有の特徴を学習する。
論文 参考訳(メタデータ) (2020-11-11T12:35:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。