論文の概要: Progressive Contrast Registration for High-Fidelity Bidirectional Photoacoustic Microscopy Alignment
- arxiv url: http://arxiv.org/abs/2602.13304v1
- Date: Mon, 09 Feb 2026 19:33:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:27.836894
- Title: Progressive Contrast Registration for High-Fidelity Bidirectional Photoacoustic Microscopy Alignment
- Title(参考訳): 高密度双方向光音響顕微鏡アライメントのためのプログレッシブコントラスト登録
- Authors: Jiahao Qin,
- Abstract要約: PCReg-Netは、粗い粒度アライメントを実行するプログレッシブコントラスト誘導型登録フレームワークである。
OR-PAM-Reg-4K (432 試験サンプル)では、PCReg-Net は NCC 0.983、SSIM 0.982、PSNR 46.96 dB を達成する。
- 参考スコア(独自算出の注目度): 1.1597621848542221
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-speed optical-resolution photoacoustic microscopy (OR-PAM) with bidirectional raster scanning doubles imaging speed but introduces coupled domain shift and geometric misalignment between forward and backward scan lines. Existing methods, constrained by brightness constancy assumptions, achieve limited alignment quality (NCC~$\leq 0.96$). We propose PCReg-Net, a progressive contrast-guided registration framework that performs coarse-to-fine alignment through four lightweight modules: (1)~a registration U-Net for coarse alignment, (2)~a reference feature extractor capturing multi-scale structural cues, (3)~a contrast module that identifies residual misalignment by comparing coarse-registered and reference features, and (4)~a refinement U-Net with feature injection for high-fidelity output. We further propose the Temporal NCC (TNCC) and Temporal NCC Gap (TNCG) for reference-free evaluation of inter-frame temporal consistency. On OR-PAM-Reg-4K (432 test samples), PCReg-Net achieves NCC of 0.983, SSIM of 0.982, and PSNR of 46.96 dB, surpassing the state-of-the-art by over 14 dB at real-time speed. Code is available at https://github.com/JiahaoQin/PCReg-Net
- Abstract(参考訳): 高速光分解能光音響顕微鏡(OR-PAM)は、双方向ラスター走査による撮像速度を2倍にするが、領域シフトと前方走査線と後方走査線との幾何学的不整合が混在する。
既存の手法は、輝度コンスタント性仮定によって制約され、限定的なアライメント品質(NCC~$\leq 0.96$)を達成する。
本研究では,(1) 粗いアライメントのための U-Net 登録,(2) 〜 参照特徴抽出器,(3) (3) 粗い登録および参照特徴を比較して残像の一致を識別するコントラストモジュール,(4) ~ 高忠実度出力のための特徴注入による改良 U-Net の4つの軽量モジュールによる粗いアライメントを行うプログレッシブコントラスト誘導型登録フレームワークであるPCReg-Netを提案する。
さらに,フレーム間の時間的一貫性の基準のない評価のために,TNCC(Temporal NCC)とTNCG(Temporal NCC Gap)を提案する。
OR-PAM-Reg-4K (432 試験サンプル)では、PCReg-Net は NCC 0.983、SSIM 0.982、PSNR 46.96 dB を達成した。
コードはhttps://github.com/JiahaoQin/PCReg-Netで入手できる。
関連論文リスト
- SAS-Net: Scene-Appearance Separation Network for Robust Spatiotemporal Registration in Bidirectional Photoacoustic Microscopy [1.1597621848542221]
光高速分解能光音響顕微鏡(OR-PAM)と双方向走査は、迅速な機能脳イメージングを可能にする。
提案手法により,高感度な双方向OR-PAMによる定量的・縦断的機能イメージングが可能となる。
論文 参考訳(メタデータ) (2026-02-06T21:01:27Z) - Morphing Through Time: Diffusion-Based Bridging of Temporal Gaps for Robust Alignment in Change Detection [51.56484100374058]
既存の変更検出ネットワークを変更することなく空間的・時間的ロバスト性を改善するモジュールパイプラインを導入する。
拡散モジュールは、大きな外観ギャップをブリッジする中間変形フレームを合成し、RoMaは段階的に対応を推定できる。
LEVIR-CD、WHU-CD、DSIFN-CDの実験は、登録精度と下流変化検出の両方において一貫した利得を示した。
論文 参考訳(メタデータ) (2025-11-11T08:40:28Z) - Distilling Parallel Gradients for Fast ODE Solvers of Diffusion Models [53.087070073434845]
拡散モデル(DM)は、最先端の生成性能を達成したが、シーケンシャルなデノナイジング特性のため、高いサンプリング遅延に悩まされている。
既存のソルバベースの加速度法では、低レイテンシの予算で画像品質が劣化することが多い。
本稿では、各ODEステップに複数の並列勾配評価を組み込むことで、トランケーションエラーを軽減する新しいODEソルバであるEnsemble Parallel Direction Solutionrを提案する。
論文 参考訳(メタデータ) (2025-07-20T03:08:06Z) - Spec2VolCAMU-Net: A Spectrogram-to-Volume Model for EEG-to-fMRI Reconstruction based on Multi-directional Time-Frequency Convolutional Attention Encoder and Vision-Mamba U-Net [13.510069069207548]
高分解能核磁気共鳴イメージング(fMRI)はヒト脳活動のマッピングに不可欠である。
既存のEEG-to-fMRIジェネレータは、チャネル間の時間周波数キューをキャプチャできないプレーンな畳み込みネットワーク(CNN)に依存している。
リッチな特徴抽出のための多方向時間周波数畳み込みアテンションを特徴とする軽量アーキテクチャであるSpec2VolCAMU-Netを提案する。
論文 参考訳(メタデータ) (2025-05-14T16:18:21Z) - Speedy MASt3R [68.47052557089631]
MASt3Rは、DUSt3Rを活用して高速な相互マッチング方式を導入することで、画像マッチングを3Dタスクとして再定義する。
高速MASt3Rは、精度を犠牲にすることなく、推論時間(画像ペアあたり198msから91ms)を54%削減する。
この進歩により、リアルタイムな3D理解が可能になり、複合現実ナビゲーションや大規模3Dシーン再構築といったアプリケーションに恩恵をもたらす。
論文 参考訳(メタデータ) (2025-03-13T03:56:22Z) - Parallel Sequence Modeling via Generalized Spatial Propagation Network [80.66202109995726]
Generalized Spatial Propagation Network (GSPN)は、2次元空間構造を本質的にキャプチャする最適化された視覚タスクのための新しいアテンションメカニズムである。
GSPNは、空間的コヒーレントな画像データを直接操作し、ラインスキャンアプローチを通じて高密度なペアワイズ接続を形成することにより、制限を克服する。
GSPNは、ImageNet分類、クラス誘導画像生成、テキスト・ツー・イメージ生成などの視覚タスクにおいて、より優れた空間忠実性と最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-01-21T18:56:19Z) - Efficient and Low-Footprint Object Classification using Spatial Contrast [0.07589017023705934]
イベントベースの視覚センサは、伝統的に時間コントラストを計算し、低消費電力で低レイテンシなセンシングとコンピューティングの可能性を秘めている。
本研究では,局所空間コントラスト(SC)を用いたイベントベースセンサの代替パラダイムについて検討した。
論文 参考訳(メタデータ) (2023-11-06T15:24:29Z) - Practical Conformer: Optimizing size, speed and flops of Conformer for
on-Device and cloud ASR [67.63332492134332]
我々は、デバイス上の制約を満たすのに十分小さく、TPUを高速に推論できる最適化されたコンバータを設計する。
提案するエンコーダは、デバイス上では強力なスタンドアロンエンコーダとして、また高性能なASRパイプラインの第1部として利用することができる。
論文 参考訳(メタデータ) (2023-03-31T23:30:48Z) - A Robust Multimodal Remote Sensing Image Registration Method and System
Using Steerable Filters with First- and Second-order Gradients [7.813406811407584]
非線形ラジオメトリック差(NRD)と有意な幾何学的歪みのため,マルチモーダルリモートセンシング画像の同時登録は現在も進行中の課題である。
本稿では,2つの重要なステップからなるステアブルフィルタに基づくロバストマッチング手法を提案する。
提案手法の性能を多種類のマルチモーダルRS画像を用いて評価した。
論文 参考訳(メタデータ) (2022-02-27T12:22:42Z) - Optical-Flow-Reuse-Based Bidirectional Recurrent Network for Space-Time
Video Super-Resolution [52.899234731501075]
時空間ビデオ超解像(ST-VSR)は、与えられたビデオの空間解像度とフレームレートを同時に増加させる。
既存の手法は通常、近隣の幅広いフレームからの情報を効率的に活用する方法の難しさに悩まされる。
本稿では,隣接するフレーム間の知識を活用するために,ConvLSTMの代わりに粗大な双方向リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T15:21:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。