論文の概要: LensNet: An End-to-End Learning Framework for Empirical Point Spread Function Modeling and Lensless Imaging Reconstruction
- arxiv url: http://arxiv.org/abs/2505.01755v1
- Date: Sat, 03 May 2025 09:11:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.257448
- Title: LensNet: An End-to-End Learning Framework for Empirical Point Spread Function Modeling and Lensless Imaging Reconstruction
- Title(参考訳): LensNet: 経験的点展開関数モデリングとレンズレス画像再構成のためのエンドツーエンド学習フレームワーク
- Authors: Jiesong Bai, Yuhao Yin, Yihang Dong, Xiaofeng Zhang, Chi-Man Pun, Xuhang Chen,
- Abstract要約: レンズレスイメージングは、従来のレンズベースのシステムに代わる有望な選択肢である。
従来のレンズレス技術は、しばしば明示的な校正と広範な前処理を必要とする。
本研究では,空間領域と周波数領域の表現を統合したエンドツーエンドのディープラーニングフレームワークであるLensNetを提案する。
- 参考スコア(独自算出の注目度): 32.85180149439811
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lensless imaging stands out as a promising alternative to conventional lens-based systems, particularly in scenarios demanding ultracompact form factors and cost-effective architectures. However, such systems are fundamentally governed by the Point Spread Function (PSF), which dictates how a point source contributes to the final captured signal. Traditional lensless techniques often require explicit calibrations and extensive pre-processing, relying on static or approximate PSF models. These rigid strategies can result in limited adaptability to real-world challenges, including noise, system imperfections, and dynamic scene variations, thus impeding high-fidelity reconstruction. In this paper, we propose LensNet, an end-to-end deep learning framework that integrates spatial-domain and frequency-domain representations in a unified pipeline. Central to our approach is a learnable Coded Mask Simulator (CMS) that enables dynamic, data-driven estimation of the PSF during training, effectively mitigating the shortcomings of fixed or sparsely calibrated kernels. By embedding a Wiener filtering component, LensNet refines global structure and restores fine-scale details, thus alleviating the dependency on multiple handcrafted pre-processing steps. Extensive experiments demonstrate LensNet's robust performance and superior reconstruction quality compared to state-of-the-art methods, particularly in preserving high-frequency details and attenuating noise. The proposed framework establishes a novel convergence between physics-based modeling and data-driven learning, paving the way for more accurate, flexible, and practical lensless imaging solutions for applications ranging from miniature sensors to medical diagnostics. The link of code is https://github.com/baijiesong/Lensnet.
- Abstract(参考訳): レンズレスイメージングは、特に超コンパクトなフォームファクターとコスト効率の良いアーキテクチャを必要とするシナリオにおいて、従来のレンズベースのシステムに代わる有望な選択肢として注目されている。
しかしながら、これらのシステムは基本的にポイントスプレッド関数 (PSF) によって制御され、ポイント源が最終的な捕捉信号にどのように寄与するかを規定する。
従来のレンズレス技術は、静的または近似的なPSFモデルに依存して、明示的なキャリブレーションと広範な事前処理を必要とすることが多い。
これらの厳密な戦略は、ノイズ、システム不完全性、動的シーンの変動など、現実世界の課題への適応性に制限を与える可能性があるため、高忠実度再構築を妨げている。
本稿では,空間領域と周波数領域の表現を統合したエンドツーエンドのディープラーニングフレームワークであるLensNetを提案する。
我々のアプローチの中心は学習可能なコードマスクシミュレータ(CMS)で、トレーニング中にPSFを動的にデータ駆動で推定し、固定されたカーネルや疎校正されたカーネルの欠点を効果的に軽減する。
Wienerフィルタコンポーネントを埋め込むことで、LensNetはグローバルな構造を洗練し、微細な詳細を復元し、複数の手作業による事前処理ステップへの依存性を軽減する。
大規模な実験は、特に高周波の詳細の保存やノイズの減衰において、最先端の手法と比較して、LensNetの堅牢な性能と優れた再構成品質を示す。
提案するフレームワークは,物理に基づくモデリングとデータ駆動学習の新たな融合を確立し,小型センサから医療診断まで,より正確でフレキシブルで実用的なレンズレスイメージングソリューションを実現する。
コードのリンクはhttps://github.com/baijiesong/Lensnet。
関連論文リスト
- Examining the Impact of Optical Aberrations to Image Classification and Object Detection Models [58.98742597810023]
視覚モデルは、ノイズやぼやけなどの乱れに対して頑丈に振る舞う必要がある。
本稿では,OpticsBenchとLensCorruptionsという,ぼやけた汚職の2つのデータセットについて検討する。
ImageNet と MSCOCO における画像分類と物体検出の評価は,様々な事前学習モデルにおいて OpticsBench と LensCorruptions の性能が著しく異なることを示す。
論文 参考訳(メタデータ) (2025-04-25T17:23:47Z) - DIPLI: Deep Image Prior Lucky Imaging for Blind Astronomical Image Restoration [2.7523980737007414]
アストロフォトグラフィーは、訓練データに制限があるため、ディープラーニングに固有の課題を提示する。
この研究は、ブラインドトレーニングを促進するが過度に適合する可能性のあるDeep Image Prior(DIP)モデルのようなハイブリッド戦略を探求する。
本稿では,DIPモデルのベースライン性能を改良する手法を提案する。
論文 参考訳(メタデータ) (2025-03-20T09:33:16Z) - A Physics-Informed Blur Learning Framework for Imaging Systems [20.105957982007283]
本稿では,物理インフォームドPSF学習フレームワークを提案する。
我々のフレームワークは高い精度と普遍的な適用性を達成することができる。
提案手法は,シミュレーションにおける画質の向上を示すとともに,実写画像の目立った画質向上を示す。
論文 参考訳(メタデータ) (2025-02-17T02:54:14Z) - Invertible Neural Warp for NeRF [29.00183106905031]
本稿では、ポーズとニューラルラジアンスフィールド(NeRF)の同時最適化に取り組む。
本稿では,モデルカメラが学習可能な剛性ワープ関数として機能する,パラメータの過剰表現を提案する。
提案手法は,合成および実世界のデータセットにおいて,ポーズ推定や高忠実度再構成の点で,既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-07-17T07:14:08Z) - Towards Physics-informed Cyclic Adversarial Multi-PSF Lensless Imaging [0.5371337604556311]
二重判別器巡回対角線を用いたマルチPSFレンズレスイメージングの新しい手法を提案する。
本稿では,学習ループに統合されたフォワードモデルと相まって,スパース畳み込み型PSF対応補助分岐を持つ独自のジェネレータアーキテクチャを提案する。
提案手法は,既存のPSFに依存しない単一PSF症例に匹敵する性能を達成し,再トレーニングを必要とせずにPSF変化に対するレジリエンスを示す。
論文 参考訳(メタデータ) (2024-07-09T10:07:28Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Neural Lens Modeling [50.57409162437732]
NeuroLens(ニューロレンス)は、点投影と光線鋳造に使用できる歪みと磁化のための神経レンズモデルである。
古典的なキャリブレーションターゲットを使用してプリキャプチャのキャリブレーションを行うことができ、後に3D再構成の際にキャリブレーションやリファインメントを行うために使用できる。
このモデルは、多くのレンズタイプにまたがって一般化されており、既存の3D再構成とレンダリングシステムとの統合は容易である。
論文 参考訳(メタデータ) (2023-04-10T20:09:17Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - Single-Image HDR Reconstruction by Learning to Reverse the Camera
Pipeline [100.5353614588565]
本稿では,LDR画像形成パイプラインの領域知識をモデルに組み込むことを提案する。
我々は,HDRto-LDR画像形成パイプラインを(1)ダイナミックレンジクリッピング,(2)カメラ応答関数からの非線形マッピング,(3)量子化としてモデル化する。
提案手法は,最先端の単一画像HDR再構成アルゴリズムに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-04-02T17:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。