論文の概要: PNR: Physics-informed Neural Representation for high-resolution LFM reconstruction
- arxiv url: http://arxiv.org/abs/2409.18223v1
- Date: Thu, 26 Sep 2024 19:02:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 15:01:18.641015
- Title: PNR: Physics-informed Neural Representation for high-resolution LFM reconstruction
- Title(参考訳): PNR:高分解能FM再構成のための物理インフォームドニューラル表現
- Authors: Jiayin Zhao, Zhifeng Zhao, Jiamin Wu, Tao Yu, Hui Qiao,
- Abstract要約: 本稿では,高分解能LFM再構成法であるPNR(Physics-informed Neural Representation)を提案する。
提案手法は教師なしかつ明示的な特徴表現手法を取り入れ,PSNRがRTDよりも6.1dB向上した。
コードとデータセットは公開されます。
- 参考スコア(独自算出の注目度): 16.475992284654033
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Light field microscopy (LFM) has been widely utilized in various fields for its capability to efficiently capture high-resolution 3D scenes. Despite the rapid advancements in neural representations, there are few methods specifically tailored for microscopic scenes. Existing approaches often do not adequately address issues such as the loss of high-frequency information due to defocus and sample aberration, resulting in suboptimal performance. In addition, existing methods, including RLD, INR, and supervised U-Net, face challenges such as sensitivity to initial estimates, reliance on extensive labeled data, and low computational efficiency, all of which significantly diminish the practicality in complex biological scenarios. This paper introduces PNR (Physics-informed Neural Representation), a method for high-resolution LFM reconstruction that significantly enhances performance. Our method incorporates an unsupervised and explicit feature representation approach, resulting in a 6.1 dB improvement in PSNR than RLD. Additionally, our method employs a frequency-based training loss, enabling better recovery of high-frequency details, which leads to a reduction in LPIPS by at least half compared to SOTA methods (1.762 V.S. 3.646 of DINER). Moreover, PNR integrates a physics-informed aberration correction strategy that optimizes Zernike polynomial parameters during optimization, thereby reducing the information loss caused by aberrations and improving spatial resolution. These advancements make PNR a promising solution for long-term high-resolution biological imaging applications. Our code and dataset will be made publicly available.
- Abstract(参考訳): 光電場顕微鏡(LFM)は、高解像度の3Dシーンを効率よく捉えるために様々な分野で広く利用されている。
神経表現の急速な進歩にもかかわらず、微視的シーンに適した方法はほとんどない。
既存のアプローチは、デフォーカスやサンプル収差による高周波情報の損失などの問題に適切に対処しないことが多く、結果として準最適性能が得られる。
さらに、RTD、INR、教師付きU-Netを含む既存の手法では、初期推定への感度、広範なラベル付きデータへの依存、計算効率の低下といった課題に直面しており、これらは複雑な生物学的シナリオにおける実用性を著しく低下させる。
本稿ではPNR(Physics-informed Neural Representation)を提案する。
提案手法は教師なしかつ明示的な特徴表現手法を取り入れ,PSNRがRTDよりも6.1dB向上した。
さらに、本手法では、周波数に基づくトレーニング損失を生かし、高周波詳細の回復を向上し、SOTA法(DINERの1.762V.S. 3.646)と比較してLPIPSを少なくとも半分削減する。
さらに、PNRは、最適化中のZernike多項式パラメータを最適化する物理インフォームド収差補正戦略を統合し、収差による情報損失を低減し、空間分解能を向上させる。
これらの進歩により、PNRは長期の高分解能生体イメージング応用に有望な解決策となる。
コードとデータセットは公開されます。
関連論文リスト
- Robust plug-and-play methods for highly accelerated non-Cartesian MRI reconstruction [2.724485028696543]
マルチコイルデータからクリーンでノイズのないMRI信号を生成するための,教師なし事前処理パイプラインを提案する。
プレコンディショニング技術と組み合わせることで,高品質なデータに対する堅牢なMRI再構成を実現する。
論文 参考訳(メタデータ) (2024-11-04T10:27:57Z) - Generalizable Non-Line-of-Sight Imaging with Learnable Physical Priors [52.195637608631955]
非視線画像(NLOS)は、その潜在的な応用により注目されている。
既存のNLOS再構成アプローチは、経験的物理的前提に依存して制約される。
本稿では,Learningable Path Compensation(LPC)とAdaptive Phasor Field(APF)の2つの主要な設計を含む,学習に基づく新しいソリューションを提案する。
論文 参考訳(メタデータ) (2024-09-21T04:39:45Z) - Spatial Annealing Smoothing for Efficient Few-shot Neural Rendering [106.0057551634008]
我々は,Spatial Annealing smoothing regularized NeRF (SANeRF) という,正確で効率的な数発のニューラルレンダリング手法を導入する。
単に1行のコードを追加することで、SANeRFは現在の数ショットのNeRF法と比較して、より優れたレンダリング品質とはるかに高速な再構築速度を提供する。
論文 参考訳(メタデータ) (2024-06-12T02:48:52Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - DCS-RISR: Dynamic Channel Splitting for Efficient Real-world Image
Super-Resolution [15.694407977871341]
実世界の画像超解像(RISR)は、未知の複雑な劣化下でのSR画像の品質向上に重点を置いている。
既存の手法は、分解レベルが異なる低解像度(LR)画像を強化するために重いSRモデルに依存している。
本稿では,DCS-RISRと呼ばれる高効率リアルタイム画像超解法のための動的チャネル分割方式を提案する。
論文 参考訳(メタデータ) (2022-12-15T04:34:57Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z) - Learned Image Compression with Generalized Octave Convolution and
Cross-Resolution Parameter Estimation [5.238765582868391]
本稿では,オクターブの畳み込みを利用して,遅延表現を高分解能 (HR) と低分解能 (LR) に分解する多分解能画像圧縮フレームワークを提案する。
実験結果から,本手法は,最先端の学習画像圧縮法と比較して,復号時間を約73.35 %,93.44 %削減できることがわかった。
論文 参考訳(メタデータ) (2022-09-07T08:21:52Z) - NerfingMVS: Guided Optimization of Neural Radiance Fields for Indoor
Multi-view Stereo [97.07453889070574]
本稿では,従来のSfM再構成と学習に基づく先行手法を併用した多視点深度推定手法を提案する。
提案手法は室内シーンにおける最先端手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-09-02T17:54:31Z) - DML-GANR: Deep Metric Learning With Generative Adversarial Network
Regularization for High Spatial Resolution Remote Sensing Image Retrieval [9.423185775609426]
我々は,HSR-RSI検索のためのDML-GANR(Generative Adversarial Network regularization)を用いたディープメトリック学習手法を開発した。
3つのデータセットの実験結果から,HSR-RSI検索における最先端技術よりもDML-GANRの方が優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-07T02:26:03Z) - Deep Generative Adversarial Residual Convolutional Networks for
Real-World Super-Resolution [31.934084942626257]
我々は,超解像残差畳み込み生成共役ネットワーク(SRResCGAN)を提案する。
これは、生成したLRドメインからHRドメインの画素単位の監督でモデルを逆トレーニングすることで、現実世界の劣化設定に従う。
提案するネットワークは,画像の高精細化と凸最適化によるエネルギーベース目的関数の最小化により,残差学習を利用する。
論文 参考訳(メタデータ) (2020-05-03T00:12:38Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。