論文の概要: Learning Domain-Invariant Representations for Cross-Domain Image Registration via Scene-Appearance Disentanglement
- arxiv url: http://arxiv.org/abs/2601.08875v2
- Date: Tue, 20 Jan 2026 13:01:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 18:45:13.517072
- Title: Learning Domain-Invariant Representations for Cross-Domain Image Registration via Scene-Appearance Disentanglement
- Title(参考訳): シーン・アジュアンス・ディスタングルによるドメイン間画像登録のためのドメイン不変表現の学習
- Authors: Jiahao Qin, Yiwen Wang,
- Abstract要約: ドメインシフトによる画像登録は、コンピュータビジョンと医用画像の基本的な課題である。
本稿では,この課題に対処する一貫したフレームワークであるSAR-Netを提案する。
対象登録誤差の中央値(rTRE)は0.25%であり, 最先端のMEVIS法(0.27% rTRE)を7.4%上回り, 99.1%の堅牢性を示した。
- 参考スコア(独自算出の注目度): 6.677604052097574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image registration under domain shift remains a fundamental challenge in computer vision and medical imaging: when source and target images exhibit systematic intensity differences, the brightness constancy assumption underlying conventional registration methods is violated, rendering correspondence estimation ill-posed. We propose SAR-Net, a unified framework that addresses this challenge through principled scene-appearance disentanglement. Our key insight is that observed images can be decomposed into domain-invariant scene representations and domain-specific appearance codes, enabling registration via re-rendering rather than direct intensity matching. We establish theoretical conditions under which this decomposition enables consistent cross-domain alignment (Proposition 1) and prove that our scene consistency loss provides a sufficient condition for geometric correspondence in the shared latent space (Proposition 2). Empirically, we validate SAR-Net on the ANHIR (Automatic Non-rigid Histological Image Registration) challenge benchmark, where multi-stain histopathology images exhibit coupled domain shift from different staining protocols and geometric distortion from tissue preparation. Our method achieves a median relative Target Registration Error (rTRE) of 0.25%, outperforming the state-of-the-art MEVIS method (0.27% rTRE) by 7.4%, with robustness of 99.1%. Code is available at https://github.com/D-ST-Sword/SAR-NET
- Abstract(参考訳): 領域シフトによる画像登録は、コンピュータビジョンと医用画像の基本的な課題であり、ソース画像とターゲット画像が体系的な強度差を示す場合、従来の登録法に基づく輝度不安定性の仮定が破られ、対応推定が不適切になる。
本稿では,この課題に対処する一貫したフレームワークであるSAR-Netを提案する。
我々の重要な洞察は、観察された画像はドメイン不変シーン表現とドメイン固有外観コードに分解することができ、直接の強度マッチングではなく、再レンダリングによる登録を可能にすることである。
この分解によって一貫したクロスドメインアライメントが可能となる理論条件(仮説1)を確立し、シーンの整合性損失が共有潜在空間における幾何学的対応に十分であることを示す(命題2)。
SAR-Net on the ANHIR (Automatic Non-rigid Histological Image Registration) Challenge benchmark, where multi-stain histopathology images showed coupled domain shift from different staining protocol and geometry distortion from tissue prepared。
対象登録誤差の中央値(rTRE)は0.25%であり, 最先端のMEVIS法(0.27% rTRE)を7.4%上回り, 99.1%の堅牢性を示した。
コードはhttps://github.com/D-ST-Sword/SAR-NETで入手できる。
関連論文リスト
- Domain Generalized Recaptured Screen Image Identification Using SWIN Transformer [1.024113475677323]
ケースケードデータ拡張とSWIN変換器領域一般化フレームワーク(DAST-DG)を提案する。
特徴生成装置は、様々な領域の正像を識別不能にするために訓練される。
このプロセスは、再適応された画像に適用され、二重対角学習セットを生成する。
論文 参考訳(メタデータ) (2024-07-24T11:22:02Z) - Breaking Modality Disparity: Harmonized Representation for Infrared and
Visible Image Registration [66.33746403815283]
シーン適応型赤外線と可視画像の登録を提案する。
我々は、異なる平面間の変形をシミュレートするためにホモグラフィーを用いる。
我々は、まず、赤外線と可視画像のデータセットが不一致であることを示す。
論文 参考訳(メタデータ) (2023-04-12T06:49:56Z) - Hierarchical Similarity Learning for Aliasing Suppression Image
Super-Resolution [64.15915577164894]
エイリアスの影響を抑制するために階層画像超解像ネットワーク(HSRNet)を提案する。
HSRNetは、他の作品よりも定量的かつ視覚的なパフォーマンスを向上し、エイリアスをより効果的に再送信する。
論文 参考訳(メタデータ) (2022-06-07T14:55:32Z) - ResiDualGAN: Resize-Residual DualGAN for Cross-Domain Remote Sensing
Images Semantic Segmentation [15.177834801688979]
アノテーション付きデータセットで事前訓練されたリモートセンシング(RS)画像のセマンティックセグメンテーションモデルの性能は、ドメインギャップのため、他のアノテーションなしデータセットでテストすると大幅に低下する。
画素レベルのドメインギャップを最小限に抑えるために、DualGANなどの逆生成法が未ペア画像から画像への変換に利用される。
本稿では,RS画像の変換においてResiDualGANを提案する。
論文 参考訳(メタデータ) (2022-01-27T13:56:54Z) - Scale Invariant Domain Generalization Image Recapture Detection [3.210092699356333]
これらの課題に対処するために、スケールアライメントドメイン一般化フレームワーク(SADG)を提案する。
まず、画像表現分布の相違を最小限に抑えるために、対向領域判別器を利用する。
最後に、大域的な関係正規化としてスケールアライメント損失を導入し、異なるスケールで同じクラスのイメージ表現を区別不能にする。
論文 参考訳(メタデータ) (2021-10-07T14:32:56Z) - Spatially-Adaptive Image Restoration using Distortion-Guided Networks [51.89245800461537]
空間的に変化する劣化に苦しむ画像の復元のための学習ベースソリューションを提案する。
本研究では、歪み局所化情報を活用し、画像中の困難な領域に動的に適応するネットワーク設計であるSPAIRを提案する。
論文 参考訳(メタデータ) (2021-08-19T11:02:25Z) - Unsupervised Metric Relocalization Using Transform Consistency Loss [66.19479868638925]
メートル法再ローカライズを行うためのトレーニングネットワークは、従来、正確な画像対応が必要である。
地図内のクエリ画像のローカライズは、登録に使用される参照画像に関係なく、同じ絶対的なポーズを与えるべきである。
提案手法は, 限られた地下構造情報が得られる場合に, 他の教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-01T19:24:27Z) - Phase Consistent Ecological Domain Adaptation [76.75730500201536]
意味的セグメンテーション(意味的セグメンテーション)の課題に焦点をあてる。そこでは、注釈付き合成データが多用されるが、実際のデータへのアノテートは困難である。
視覚心理学に触発された最初の基準は、2つの画像領域間の地図が位相保存であることである。
第2の基準は、照明剤や撮像センサーの特性に関わらず、その画像に現れる環境統計、またはシーン内の規則を活用することを目的としている。
論文 参考訳(メタデータ) (2020-04-10T06:58:03Z) - On the Role of Receptive Field in Unsupervised Sim-to-Real Image
Translation [4.664495510551647]
GAN(Generative Adversarial Networks)は、フォトリアリスティック画像合成に広く利用されている。
GANは、画像が1つのドメインからもう1つのドメインに変換されるため、セマンティックコンテンツ保持の失敗に影響を受けやすい。
本稿では,不一致データを用いた教師なし画像と画像の翻訳における識別器の受容領域の役割について検討する。
論文 参考訳(メタデータ) (2020-01-25T03:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。