論文の概要: SAS-Net: Scene-Appearance Separation Network for Robust Spatiotemporal Registration in Bidirectional Photoacoustic Microscopy
- arxiv url: http://arxiv.org/abs/2602.09050v1
- Date: Fri, 06 Feb 2026 21:01:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.15298
- Title: SAS-Net: Scene-Appearance Separation Network for Robust Spatiotemporal Registration in Bidirectional Photoacoustic Microscopy
- Title(参考訳): SAS-Net:双方向光音響顕微鏡におけるロバスト時空間登録のためのシーン表示分離ネットワーク
- Authors: Jiahao Qin,
- Abstract要約: 光高速分解能光音響顕微鏡(OR-PAM)と双方向走査は、迅速な機能脳イメージングを可能にする。
提案手法により,高感度な双方向OR-PAMによる定量的・縦断的機能イメージングが可能となる。
- 参考スコア(独自算出の注目度): 1.1597621848542221
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-speed optical-resolution photoacoustic microscopy (OR-PAM) with bidirectional scanning enables rapid functional brain imaging but introduces severe spatiotemporal misalignment from coupled scan-direction-dependent domain shift and geometric distortion. Conventional registration methods rely on brightness constancy, an assumption violated under bidirectional scanning, leading to unreliable alignment. A unified scene-appearance separation framework is proposed to jointly address domain shift and spatial misalignment. The proposed architecture separates domain-invariant scene content from domain-specific appearance characteristics, enabling cross-domain reconstruction with geometric preservation. A scene consistency loss promotes geometric correspondence in the latent space, linking domain shift correction with spatial registration within a single framework. For in vivo mouse brain vasculature imaging, the proposed method achieves normalized cross-correlation (NCC) of 0.961 and structural similarity index (SSIM) of 0.894, substantially outperforming conventional methods. Ablation studies demonstrate that domain alignment loss is critical, with its removal causing 82% NCC reduction (0.961 to 0.175), while scene consistency and cycle consistency losses provide complementary regularization for optimal performance. The method achieves 11.2 ms inference time per frame (86 fps), substantially exceeding typical OR-PAM acquisition rates and enabling real-time processing. These results suggest that the proposed framework enables robust high-speed bidirectional OR-PAM for reliable quantitative and longitudinal functional imaging. The code will be publicly available at https://github.com/D-ST-Sword/SAS-Net
- Abstract(参考訳): 高速光分解能光音響顕微鏡 (OR-PAM) は, 高速な機能的脳画像撮影を可能にするが, 走査方向依存性ドメインシフトと幾何歪みを併用することにより, 時空間の過度なずれを生じさせる。
従来の登録法は、双方向走査下での仮定に反し、信頼性の低いアライメントに繋がる、輝度の安定度に依存している。
領域シフトと空間的ミスアライメントに共同で対処するために,統一的なシーン・外観分離フレームワークを提案する。
提案アーキテクチャは、ドメイン不変シーンの内容とドメイン固有の外観特性を分離し、幾何学的保存によるドメイン間再構築を可能にする。
シーン一貫性損失は、潜在空間における幾何学的対応を促進し、単一のフレームワーク内の領域シフト補正と空間登録をリンクする。
In vivo の脳血管イメージングにおいて,本手法は 0.961 の正規化相互相関 (NCC) と 0.894 の構造類似度指数 (SSIM) を達成し,従来法よりも大幅に優れていた。
アブレーション研究では、ドメインアライメントの損失が重要であり、その除去は82%のNCC減少(0.961から0.175)を引き起こし、一方、シーン一貫性とサイクル一貫性の損失は、最適性能の相補的な正則化をもたらすことが示されている。
この方法は、フレーム当たり11.2msの推論時間(86fps)を達成し、典型的なOR-PAM取得率を大幅に超え、リアルタイム処理を可能にする。
以上の結果から,提案手法は信頼性の高い定量的・縦断的機能イメージングを実現するために,頑健な双方向OR-PAMを実現することが示唆された。
コードはhttps://github.com/D-ST-Sword/SAS-Netで公開される。
関連論文リスト
- Learning Domain-Invariant Representations for Cross-Domain Image Registration via Scene-Appearance Disentanglement [6.677604052097574]
ドメインシフトによる画像登録は、コンピュータビジョンと医用画像の基本的な課題である。
本稿では,この課題に対処する一貫したフレームワークであるSAR-Netを提案する。
対象登録誤差の中央値(rTRE)は0.25%であり, 最先端のMEVIS法(0.27% rTRE)を7.4%上回り, 99.1%の堅牢性を示した。
論文 参考訳(メタデータ) (2026-01-12T07:14:11Z) - Morphing Through Time: Diffusion-Based Bridging of Temporal Gaps for Robust Alignment in Change Detection [51.56484100374058]
既存の変更検出ネットワークを変更することなく空間的・時間的ロバスト性を改善するモジュールパイプラインを導入する。
拡散モジュールは、大きな外観ギャップをブリッジする中間変形フレームを合成し、RoMaは段階的に対応を推定できる。
LEVIR-CD、WHU-CD、DSIFN-CDの実験は、登録精度と下流変化検出の両方において一貫した利得を示した。
論文 参考訳(メタデータ) (2025-11-11T08:40:28Z) - HAD: Hierarchical Asymmetric Distillation to Bridge Spatio-Temporal Gaps in Event-Based Object Tracking [80.07224739976911]
イベントカメラは例外的な時間分解能と範囲(モード)を提供する
RGBカメラは高解像度でリッチテクスチャを捉えるのに優れていますが、イベントカメラは例外的な時間分解能とレンジ(モダル)を提供します。
論文 参考訳(メタデータ) (2025-10-22T13:15:13Z) - DeLiVR: Differential Spatiotemporal Lie Bias for Efficient Video Deraining [21.816338275013702]
ネットワークの注意点に直接リー群差分バイアスを注入する,効率的なビデオデラミニング手法であるDeLiVRを提案する。
回転有界リー相対バイアスは、コンパクトな予測モジュールを用いて各フレームの面内角度を予測する。
微分群変位は、速度を推定するために隣接するフレーム間の角度差を計算する。
このバイアスは、時間的減衰とアテンションマスクを組み合わせて、雨の流れの方向を正確に一致させながら、フレーム間の関係に焦点を当てる。
論文 参考訳(メタデータ) (2025-09-26T00:29:36Z) - Domain Adaptive SAR Wake Detection: Leveraging Similarity Filtering and Memory Guidance [5.026771815351906]
そこで本稿では,非教師付きドメイン適応型船舶起動検出のためのSimisity-Guided and Memory-Guided Domain Adap-tation (Termed SimMemDA) フレームワークを提案する。
まず、WakeGANを用いて光学画像のスタイル転送を行い、SARスタイルに近い擬似画像を生成する。
次に、インスタンスレベルの特徴類似度フィルタリング機構を設計し、ソースサンプルをターゲットライクなディストリビューションで識別し、優先順位付けする。
論文 参考訳(メタデータ) (2025-09-14T08:35:39Z) - Unsupervised Deformable Image Registration with Structural Nonparametric Smoothing [21.95149344518237]
学習ベースの変形可能な画像登録(DIR)アライメントは、ニューラルネットワークを通じて従来の最適化を償却することによって加速する。
SmoothProperは、スムーズさを強制し、ネットワークのフォワードパス内でメッセージパッシングを促進するプラグイン・アンド・プレイのニューラルモジュールである。
網膜血管データセットの予備的な結果は,2912x2画像上での登録誤差を1.88ピクセルまで低減することを示した。
論文 参考訳(メタデータ) (2025-06-12T15:26:03Z) - Cross-Scan Mamba with Masked Training for Robust Spectral Imaging [51.557804095896174]
本研究では,空間スペクトルSSMを用いたクロススキャンマンバ(CS-Mamba)を提案する。
実験の結果, CS-Mambaは最先端の性能を達成し, マスク付きトレーニング手法によりスムーズな特徴を再構築し, 視覚的品質を向上させることができた。
論文 参考訳(メタデータ) (2024-08-01T15:14:10Z) - Unsupervised Foggy Scene Understanding via Self Spatial-Temporal Label
Diffusion [51.11295961195151]
運転シーンの霧画像列の特徴を利用して、自信ある擬似ラベルを密度化する。
局所的な空間的類似性と逐次画像データの隣接時間対応の2つの発見に基づいて,新たなターゲット・ドメイン駆動擬似ラベル拡散方式を提案する。
本手法は,2つの天然霧のデータセット上で51.92%,53.84%の平均交叉結合(mIoU)を達成するのに有効である。
論文 参考訳(メタデータ) (2022-06-10T05:16:50Z) - Dual-Flow Transformation Network for Deformable Image Registration with
Region Consistency Constraint [95.30864269428808]
現在のディープラーニング(DL)ベースの画像登録アプローチは、畳み込みニューラルネットワークを利用して、ある画像から別の画像への空間変換を学習する。
一対のイメージ内のROIの類似性を最大化する領域整合性制約を持つ新しいデュアルフロー変換ネットワークを提案する。
4つの公開3次元MRIデータセットを用いた実験により,提案手法は精度と一般化において最高の登録性能が得られることを示した。
論文 参考訳(メタデータ) (2021-12-04T05:30:44Z) - Leveraging Spatial and Photometric Context for Calibrated Non-Lambertian
Photometric Stereo [61.6260594326246]
空間と測光の両方を同時に活用できる効率的な完全畳み込みアーキテクチャを提案する。
分離可能な4D畳み込みと2D熱マップを使うことで、サイズが小さくなり、効率が向上する。
論文 参考訳(メタデータ) (2021-03-22T18:06:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。