論文の概要: Position-Aware Scene-Appearance Disentanglement for Bidirectional Photoacoustic Microscopy Registration
- arxiv url: http://arxiv.org/abs/2602.15959v1
- Date: Tue, 17 Feb 2026 19:20:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.413786
- Title: Position-Aware Scene-Appearance Disentanglement for Bidirectional Photoacoustic Microscopy Registration
- Title(参考訳): 双方向光音響顕微鏡レジストレーションにおける位置認識シーンの歪み
- Authors: Yiwen Wang, Jiahao Qin,
- Abstract要約: 光分解能高速光顕微鏡(OR-PAM)
既存の登録法は、輝度コンスタント性仮定に制約され、アライメント品質が制限されている。
GPEReg-Netは、ドメイン固有の外見コードとドメイン固有の外見的特徴を分離する、シーン・外見的外見的外見的外見的外見的外見的外見的外見的外見的外見的外見的外見的外見的外見的外見的外見的外見的外見的外見的外見的外見的外見的特徴を分離するフレームワークである。
OR-PAM-Reg-4Kベンチマークでは、GPEReg-Netが0.953、0.932、PSNRが34.49dB、SSIMが3.8%、SSIMが1.99dBを突破した。
- 参考スコア(独自算出の注目度): 6.677604052097574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-speed optical-resolution photoacoustic microscopy (OR-PAM) with bidirectional raster scanning doubles imaging speed but introduces coupled domain shift and geometric misalignment between forward and backward scan lines. Existing registration methods, constrained by brightness constancy assumptions, achieve limited alignment quality, while recent generative approaches address domain shift through complex architectures that lack temporal awareness across frames. We propose GPEReg-Net, a scene-appearance disentanglement framework that separates domain-invariant scene features from domain-specific appearance codes via Adaptive Instance Normalization (AdaIN), enabling direct image-to-image registration without explicit deformation field estimation. To exploit temporal structure in sequential acquisitions, we introduce a Global Position Encoding (GPE) module that combines learnable position embeddings with sinusoidal encoding and cross-frame attention, allowing the network to leverage context from neighboring frames for improved temporal coherence. On the OR-PAM-Reg-4K benchmark (432 test samples), GPEReg-Net achieves NCC of 0.953, SSIM of 0.932, and PSNR of 34.49dB, surpassing the state-of-the-art by 3.8% in SSIM and 1.99dB in PSNR while maintaining competitive NCC. Code is available at https://github.com/JiahaoQin/GPEReg-Net.
- Abstract(参考訳): 高速光分解能光音響顕微鏡(OR-PAM)は、双方向ラスター走査による撮像速度を2倍にするが、領域シフトと前方走査線と後方走査線との幾何学的不整合が混在する。
既存の登録手法は、輝度コンスタント性仮定によって制約され、アライメントの品質が制限される一方、最近の生成的アプローチは、フレーム間の時間的認識に欠ける複雑なアーキテクチャを通してのドメインシフトに対処する。
本稿では,AdaIN(Adaptive Instance Normalization, 適応インスタンス正規化)を介してドメイン固有の外観コードからドメイン不変シーン特徴を分離し,明示的な変形場推定を行なわずに直接画像と画像の登録を可能にするシーン不整合フレームワークであるGPEReg-Netを提案する。
逐次取得における時間構造を活用するために,学習可能な位置埋め込みと正弦波符号化とクロスフレームアテンションを組み合わせたグローバル位置符号化(GPE)モジュールを導入する。
OR-PAM-Reg-4Kベンチマーク(432のテストサンプル)では、GPEReg-Netが0.953、0.932、PSNRが34.49dB、SSIMが3.8%、PSNRが1.99dBを突破した。
コードはhttps://github.com/JiahaoQin/GPEReg-Netで入手できる。
関連論文リスト
- Progressive Contrast Registration for High-Fidelity Bidirectional Photoacoustic Microscopy Alignment [1.1597621848542221]
PCReg-Netは、粗い粒度アライメントを実行するプログレッシブコントラスト誘導型登録フレームワークである。
OR-PAM-Reg-4K (432 試験サンプル)では、PCReg-Net は NCC 0.983、SSIM 0.982、PSNR 46.96 dB を達成する。
論文 参考訳(メタデータ) (2026-02-09T19:33:38Z) - SAS-Net: Scene-Appearance Separation Network for Robust Spatiotemporal Registration in Bidirectional Photoacoustic Microscopy [1.1597621848542221]
光高速分解能光音響顕微鏡(OR-PAM)と双方向走査は、迅速な機能脳イメージングを可能にする。
提案手法により,高感度な双方向OR-PAMによる定量的・縦断的機能イメージングが可能となる。
論文 参考訳(メタデータ) (2026-02-06T21:01:27Z) - Learning Domain-Invariant Representations for Cross-Domain Image Registration via Scene-Appearance Disentanglement [6.677604052097574]
ドメインシフトによる画像登録は、コンピュータビジョンと医用画像の基本的な課題である。
本稿では,この課題に対処する一貫したフレームワークであるSAR-Netを提案する。
対象登録誤差の中央値(rTRE)は0.25%であり, 最先端のMEVIS法(0.27% rTRE)を7.4%上回り, 99.1%の堅牢性を示した。
論文 参考訳(メタデータ) (2026-01-12T07:14:11Z) - OptiCorNet: Optimizing Sequence-Based Context Correlation for Visual Place Recognition [2.3093110834423616]
本稿では,新しいシーケンスモデリングフレームワークOptiCorNetを提案する。
空間的特徴抽出と時間的差分を微分可能でエンドツーエンドのトレーニング可能なモジュールに統一する。
本手法は,季節的・視点的な変化に挑戦し,最先端のベースラインよりも優れる。
論文 参考訳(メタデータ) (2025-07-19T04:29:43Z) - Parallel Sequence Modeling via Generalized Spatial Propagation Network [80.66202109995726]
Generalized Spatial Propagation Network (GSPN)は、2次元空間構造を本質的にキャプチャする最適化された視覚タスクのための新しいアテンションメカニズムである。
GSPNは、空間的コヒーレントな画像データを直接操作し、ラインスキャンアプローチを通じて高密度なペアワイズ接続を形成することにより、制限を克服する。
GSPNは、ImageNet分類、クラス誘導画像生成、テキスト・ツー・イメージ生成などの視覚タスクにおいて、より優れた空間忠実性と最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-01-21T18:56:19Z) - Fast Diffeomorphic Image Registration using Patch based Fully Convolutional Networks [5.479932919974457]
本稿では,高速な微分画像登録のための,教師なし学習に基づく完全畳み込みネットワーク(FCN)フレームワークを提案する。
3つの異なるT1強調MRI(T1w MRI)データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2024-04-05T17:46:38Z) - DCN-T: Dual Context Network with Transformer for Hyperspectral Image
Classification [109.09061514799413]
複雑な撮像条件による空間変動のため,HSI分類は困難である。
本稿では,HSIを高品質な三スペクトル画像に変換する三スペクトル画像生成パイプラインを提案する。
提案手法は,HSI分類における最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-04-19T18:32:52Z) - Adjacent Context Coordination Network for Salient Object Detection in
Optical Remote Sensing Images [102.75699068451166]
本稿では,光RSI-SODのためのエンコーダ・デコーダアーキテクチャにおいて,隣接した特徴のコーディネートを探索するための新しいアジャセントコンテキストコーディネートネットワーク(ACCoNet)を提案する。
提案されたACCoNetは、9つの評価基準の下で22の最先端メソッドを上回り、1つのNVIDIA Titan X GPU上で81fpsで動作する。
論文 参考訳(メタデータ) (2022-03-25T14:14:55Z) - Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution [52.899234731501075]
時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T15:21:30Z) - TBNet:Two-Stream Boundary-aware Network for Generic Image Manipulation
Localization [49.521622399483846]
汎用画像操作のローカライゼーションのための新しいエンド・ツー・エンド2ストリーム境界対応ネットワーク(TBNet)を提案する。
提案したTBNetは、MCCとF1の両方の観点から、最先端の汎用画像操作のローカライズ手法を大幅に上回ることができる。
論文 参考訳(メタデータ) (2021-08-10T08:22:05Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。