論文の概要: Surrogate Supervision for Robust and Generalizable Deformable Image Registration
- arxiv url: http://arxiv.org/abs/2509.09869v1
- Date: Thu, 11 Sep 2025 21:43:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:07.931661
- Title: Surrogate Supervision for Robust and Generalizable Deformable Image Registration
- Title(参考訳): ロバストで一般化可能な画像登録のためのサロゲート・スーパービジョン
- Authors: Yihao Liu, Junyu Chen, Lianrui Zuo, Shuwen Wei, Brian D. Boyd, Carmen Andreescu, Olusola Ajilore, Warren D. Taylor, Aaron Carass, Bennett A. Landman,
- Abstract要約: サブロゲート・インスペクションを導入し、インプット・ドメインをインスペクション・ドメインから切り離す。
本フレームワークは3つの代表的な応用として,アーティファクトロバスト脳MRI登録,マスク非依存型肺CT登録,マルチモーダルMR登録がある。
- 参考スコア(独自算出の注目度): 14.4318141923822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Objective: Deep learning-based deformable image registration has achieved strong accuracy, but remains sensitive to variations in input image characteristics such as artifacts, field-of-view mismatch, or modality difference. We aim to develop a general training paradigm that improves the robustness and generalizability of registration networks. Methods: We introduce surrogate supervision, which decouples the input domain from the supervision domain by applying estimated spatial transformations to surrogate images. This allows training on heterogeneous inputs while ensuring supervision is computed in domains where similarity is well defined. We evaluate the framework through three representative applications: artifact-robust brain MR registration, mask-agnostic lung CT registration, and multi-modal MR registration. Results: Across tasks, surrogate supervision demonstrated strong resilience to input variations including inhomogeneity field, inconsistent field-of-view, and modality differences, while maintaining high performance on well-curated data. Conclusions: Surrogate supervision provides a principled framework for training robust and generalizable deep learning-based registration models without increasing complexity. Significance: Surrogate supervision offers a practical pathway to more robust and generalizable medical image registration, enabling broader applicability in diverse biomedical imaging scenarios.
- Abstract(参考訳): 目的: 深層学習に基づく変形可能な画像登録は、精度が高いが、アーティファクト、フィールド・オブ・ビューのミスマッチ、モダリティ差などの入力画像特性の変化に敏感である。
我々は,登録ネットワークの堅牢性と一般化性を向上させるための総合訓練パラダイムを開発することを目的とする。
方法:サロゲート画像に推定空間変換を適用することにより、サロゲート領域から入力領域を分離するサロゲート監視を導入する。
これにより、類似性がよく定義されたドメインにおいて、監視が確実に計算される一方で、異種入力のトレーニングが可能になる。
本フレームワークは3つの代表的な応用として,アーティファクトロバスト脳MRI登録,マスク非依存型肺CT登録,マルチモーダルMR登録がある。
結果: タスク全体にわたって, サーロゲート・インスペクションは, 不均一性フィールド, 不整性フィールド, モダリティ差などの入力変動に対して強いレジリエンスを示し, 精度の高いデータに対する高い性能を維持した。
結論: 監視は、複雑さを増すことなく、堅牢で一般化可能なディープラーニングベースの登録モデルをトレーニングするための、原則化されたフレームワークを提供する。
意義:サロゲート監督は、より堅牢で一般化可能な医用画像登録への実践的な経路を提供する。
関連論文リスト
- IMPACT: A Generic Semantic Loss for Multimodal Medical Image Registration [0.46904601975060667]
IMPACT (Image Metric with Pretrained Model-Agnostic Comparison for Transmodality registration) は、マルチモーダル画像登録のための新しい類似度尺度である。
大規模事前訓練セグメンテーションモデルから抽出した深い特徴の比較に基づいて意味的類似度尺度を定義する。
胸椎CT/CBCTおよび骨盤MR/CTデータセットを含む5つの難易度3次元登録課題について検討した。
論文 参考訳(メタデータ) (2025-03-31T14:08:21Z) - Unity in Diversity: Multi-expert Knowledge Confrontation and Collaboration for Generalizable Vehicle Re-identification [60.20318058777603]
一般化可能な車両再識別(ReID)は、微調整や再訓練を必要とせず、未知のターゲットドメインに適応可能なモデルの開発を目指している。
これまでの研究は主に、ソースドメイン間のデータ分散を調整することで、ドメイン不変の機能の抽出に重点を置いてきた。
そこで本研究では,この問題を解決するために,2段階のMulti-expert Knowledge Confrontation and Collaboration(MiKeCoCo)手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T04:06:39Z) - Breaking Modality Disparity: Harmonized Representation for Infrared and
Visible Image Registration [66.33746403815283]
シーン適応型赤外線と可視画像の登録を提案する。
我々は、異なる平面間の変形をシミュレートするためにホモグラフィーを用いる。
我々は、まず、赤外線と可視画像のデータセットが不一致であることを示す。
論文 参考訳(メタデータ) (2023-04-12T06:49:56Z) - Joint segmentation and discontinuity-preserving deformable registration:
Application to cardiac cine-MR images [74.99415008543276]
多くの深層学習に基づく登録法は、変形場は画像領域の至る所で滑らかで連続的であると仮定する。
本研究では,この課題に対処するために,不連続かつ局所的に滑らかな変形場を確保するための新しい不連続保存画像登録手法を提案する。
入力画像の構造的相関を学習するために,ネットワークのセグメンテーション成分にコアテンションブロックを提案する。
大規模心磁気共鳴画像系列を用いた物体内時間画像登録の課題について検討した。
論文 参考訳(メタデータ) (2022-11-24T23:45:01Z) - A Deep Discontinuity-Preserving Image Registration Network [73.03885837923599]
ほとんどの深層学習に基づく登録法は、所望の変形場が全世界的に滑らかで連続的であると仮定する。
本稿では、より優れた登録性能とリアルな変形場を得るために、弱い教師付き深部不連続保存画像登録ネットワーク(DDIR)を提案する。
本研究では, 心臓磁気共鳴(MR)画像の登録実験において, 登録精度を大幅に向上し, より現実的な変形を予測できることを実証した。
論文 参考訳(メタデータ) (2021-07-09T13:35:59Z) - CAR-Net: Unsupervised Co-Attention Guided Registration Network for Joint
Registration and Structure Learning [73.03885837923599]
我々は,新しい深層学習ネットワークCAR-Net(Co-Attention Guided Registration Network)を提案する。
CAR-Netはコアテンションブロックを用いて入力の新しい表現を学習し、固定画像と移動画像の登録を駆動する。
イギリスバイオバンクの心臓磁気共鳴画像データを用いた実験により、CAR-Netは最先端の教師なし登録法よりも高い登録精度とスムーズな変形場が得られることが示された。
論文 参考訳(メタデータ) (2021-06-11T23:25:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。