論文の概要: Dc-EEMF: Pushing depth-of-field limit of photoacoustic microscopy via decision-level constrained learning
- arxiv url: http://arxiv.org/abs/2506.03181v1
- Date: Thu, 29 May 2025 15:17:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:13.91654
- Title: Dc-EEMF: Pushing depth-of-field limit of photoacoustic microscopy via decision-level constrained learning
- Title(参考訳): Dc-EEMF:決定レベルの制約学習による光音響顕微鏡の深度限界を押し上げる
- Authors: Wangting Zhou, Jiangshan He, Tong Cai, Lin Wang, Zhen Yuan, Xunbin Wei, Xueli Chen,
- Abstract要約: 光音響顕微鏡(OR-PAM)はフィールド深度制限(DoF)によって妨害される
そこで本稿では,PAMのDoF限界を押し上げるために,Dc-EEMF(Decision-level constrained end-to-end multi-focus image fusion)を提案する。
DC-EEMF法は, アーティファクト耐性チャネルワイド空間周波数を特徴融合規則として組み込んだ, 軽量シムネットワークである。
- 参考スコア(独自算出の注目度): 6.171836887070142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Photoacoustic microscopy holds the potential to measure biomarkers' structural and functional status without labels, which significantly aids in comprehending pathophysiological conditions in biomedical research. However, conventional optical-resolution photoacoustic microscopy (OR-PAM) is hindered by a limited depth-of-field (DoF) due to the narrow depth range focused on a Gaussian beam. Consequently, it fails to resolve sufficient details in the depth direction. Herein, we propose a decision-level constrained end-to-end multi-focus image fusion (Dc-EEMF) to push DoF limit of PAM. The DC-EEMF method is a lightweight siamese network that incorporates an artifact-resistant channel-wise spatial frequency as its feature fusion rule. The meticulously crafted U-Net-based perceptual loss function for decision-level focus properties in end-to-end fusion seamlessly integrates the complementary advantages of spatial domain and transform domain methods within Dc-EEMF. This approach can be trained end-to-end without necessitating post-processing procedures. Experimental results and numerical analyses collectively demonstrate our method's robust performance, achieving an impressive fusion result for PAM images without a substantial sacrifice in lateral resolution. The utilization of Dc-EEMF-powered PAM has the potential to serve as a practical tool in preclinical and clinical studies requiring extended DoF for various applications.
- Abstract(参考訳): 光音響顕微鏡は、バイオマーカーの構造的および機能的地位をラベルなしで測定する可能性を秘めている。
しかし、従来の光学分解能光音響顕微鏡(OR-PAM)は、ガウスビームに焦点を絞った狭い深度範囲のため、フィールド深度(DoF)が制限される。
その結果、深さ方向の十分な詳細を解決できない。
本稿では,PAMのDoF限界を押し上げるために,Dc-EEMF(Decision-level constrained end-to-end multi-focus image fusion)を提案する。
DC-EEMF法は, アーティファクト耐性チャネルワイド空間周波数を特徴融合規則として組み込んだ, 軽量シムネットワークである。
エンド・ツー・エンド融合における決定レベルの焦点特性に対する微妙に構築されたU-Netに基づく知覚的損失関数は、空間領域とDc-EEMF内の変換ドメインメソッドの相補的な利点をシームレスに統合する。
このアプローチは、後処理手順を必要とせずにエンドツーエンドでトレーニングすることができる。
実験結果と数値解析により, 側方分解能のかなりの犠牲を伴わずに, PAM画像に対する顕著な融合結果が得られた。
Dc-EEMFによるPAMの使用は、様々な用途にDoFを拡張することを必要とする臨床および臨床研究において、実用的なツールとして機能する可能性がある。
関連論文リスト
- Three-Dimensional Diffusion-Weighted Multi-Slab MRI With Slice Profile Compensation Using Deep Energy Model [10.99312739995288]
プラグイン・アンド・プレイADMMフレームワークにおける正規化スラブプロファイル符号化(PEN)手法を提案する。
提案手法は,非正規化およびテレビ正規化PEN手法と比較して画像品質を著しく向上することを示す。
論文 参考訳(メタデータ) (2025-01-28T18:53:16Z) - Diffusion-driven lensless fiber endomicroscopic quantitative phase imaging towards digital pathology [43.237550839304774]
マルチコアファイバ(MCF)の検出側で捕獲されたスペックルから直接位相像を再構成するためのスペックル条件拡散モデル(SpecDiffusion)を提案する。
従来のニューラルネットワークとは異なり、SpecDiffusionはスペックル駆動の位相再構成に反復的な位相分解ステップを採用している。
SpecDiffusionは高忠実度位相再構成結果を提供し、見えない物体に対して強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-07-26T01:42:31Z) - Physics-Inspired Degradation Models for Hyperspectral Image Fusion [61.743696362028246]
ほとんどの融合法は、融合アルゴリズム自体にのみ焦点をあて、分解モデルを見落としている。
我々は、LR-HSIとHR-MSIの劣化をモデル化するための物理インスパイアされた劣化モデル(PIDM)を提案する。
提案したPIDMは,既存の核融合法における核融合性能を向上させることができる。
論文 参考訳(メタデータ) (2024-02-04T09:07:28Z) - Speeding up Photoacoustic Imaging using Diffusion Models [0.0]
光音響顕微鏡(PAM)は、光学的および音響的イメージングを統合し、組織内の光学吸収成分を検出するための浸透深度を向上させる。
レーザーパルス繰り返し速度による速度制限により、計算手法の潜在的な役割は、PAMイメージングの加速において強調される。
PAM画像の高速化に拡散モデルを用いた,新しい高適応DiffPamアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:34:27Z) - Learning Super-Resolution Ultrasound Localization Microscopy from
Radio-Frequency Data [8.312810360920107]
DASビームフォーミングとその制限を回避しつつ、RFデータを超高分解能ネットワークに供給することを提案する。
RFトレーニングネットワークの結果から,DASビームフォーミングを除くと,ULMの分解能性能を最適化できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-07T15:47:38Z) - Theoretical framework for real time sub-micron depth monitoring using
quantum inline coherent imaging [55.2480439325792]
インラインコヒーレントイメージング(ICI)は、キーホール溶接、添加物製造、マイクロ加工など、様々なレーザプロセスのリアルタイム監視のための信頼性の高い手法である。
軸方向分解能は2m以上に限定されており、ICIはサブミクロンプロセスの監視には適さない。
量子光コヒーレンス・トモグラフィ(Q OCT)の進歩は、1m以上の奥行き分解能を達成してこの問題に対処する可能性がある。
論文 参考訳(メタデータ) (2023-09-17T17:05:21Z) - Wild ToFu: Improving Range and Quality of Indirect Time-of-Flight Depth
with RGB Fusion in Challenging Environments [56.306567220448684]
本稿では,ノイズの多い生のI-ToF信号とRGB画像を用いた学習に基づくエンド・ツー・エンドの深度予測ネットワークを提案する。
最終深度マップでは,ベースラインアプローチと比較して40%以上のRMSE改善が見られた。
論文 参考訳(メタデータ) (2021-12-07T15:04:14Z) - ShuffleUNet: Super resolution of diffusion-weighted MRIs using deep
learning [47.68307909984442]
SISR(Single Image Super-Resolution)は、1つの低解像度入力画像から高解像度(HR)の詳細を得る技術である。
ディープラーニングは、大きなデータセットから事前知識を抽出し、低解像度の画像から優れたMRI画像を生成します。
論文 参考訳(メタデータ) (2021-02-25T14:52:23Z) - MFIF-GAN: A New Generative Adversarial Network for Multi-Focus Image
Fusion [29.405149234582623]
マルチフォーカス画像融合(MFIF)は、オールインフォーカス画像を得るための有望な技術である。
MFIFの研究動向の1つは、フォーカス/デフォーカス境界(FDB)周辺のデフォーカス拡散効果(DSE)を回避することである。
我々は,MFIF-GANと呼ばれるネットワークを用いて,前景領域が対応する対象よりも正確に大きいフォーカスマップを生成する。
論文 参考訳(メタデータ) (2020-09-21T09:36:34Z) - Hyperspectral-Multispectral Image Fusion with Weighted LASSO [68.04032419397677]
本稿では,高スペクトル像と多スペクトル像を融合させて高画質な高スペクトル出力を実現する手法を提案する。
提案したスパース融合と再構成は,既存の公開画像の手法と比較して,定量的に優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2020-03-15T23:07:56Z) - Learning Wavefront Coding for Extended Depth of Field Imaging [4.199844472131922]
拡張深度画像(EDoF)は難題である。
回折光学素子による波面符号化を応用したEDoFの計算画像化手法を提案する。
深部3Dシーンやブロードバンド画像など,さまざまなシナリオにおいて,最小限の成果が得られた。
論文 参考訳(メタデータ) (2019-12-31T17:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。