論文の概要: Null-Space Diffusion Distillation for Efficient Photorealistic Lensless Imaging
- arxiv url: http://arxiv.org/abs/2511.12024v1
- Date: Sat, 15 Nov 2025 04:25:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.511671
- Title: Null-Space Diffusion Distillation for Efficient Photorealistic Lensless Imaging
- Title(参考訳): 高能率光リアリスティックレンズレスイメージングのためのNull空間拡散蒸留法
- Authors: Jose Reinaldo Cunha Santos A V Silva Neto, Hodaka Kawachi, Yasushi Yagi, Tomoya Nakamura,
- Abstract要約: 我々は,反復DDNM+ソルバのヌル空間成分を蒸留するシングルパスの学生であるNull-Space Diffusion Distillation (NSDD)を紹介する。
NSDDは測定一貫性を保ち、ランタイムとメモリのごく一部でペアの監督なしに光現実的な結果を達成する。
結果から, 高速, 地表面自由, フォトリアリスティックなレンズレスイメージングへの実践的道が示唆された。
- 参考スコア(独自算出の注目度): 4.246509410711165
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: State-of-the-art photorealistic reconstructions for lensless cameras often rely on paired lensless-lensed supervision, which can bias models due to lens-lensless domain mismatch. To avoid this, ground-truth-free diffusion priors are attractive; however, generic formulations tuned for conventional inverse problems often break under the noisy, highly multiplexed, and ill-posed lensless deconvolution setting. We observe that methods which separate range-space enforcement from null-space diffusion-prior updates yield stable, realistic reconstructions. Building on this, we introduce Null-Space Diffusion Distillation (NSDD): a single-pass student that distills the null-space component of an iterative DDNM+ solver, conditioned on the lensless measurement and on a range-space anchor. NSDD preserves measurement consistency and achieves photorealistic results without paired supervision at a fraction of the runtime and memory. On Lensless-FFHQ and PhlatCam, NSDD is the second fastest, behind Wiener, and achieves near-teacher perceptual quality (second-best LPIPS, below DDNM+), outperforming DPS and classical convex baselines. These results suggest a practical path toward fast, ground-truth-free, photorealistic lensless imaging.
- Abstract(参考訳): レンズレスカメラの最先端のフォトリアリスティックな再構築は、レンズレスドメインミスマッチによるバイアスモデルであるレンズレスレンズの監視に頼っていることが多い。
これを避けるために、地道な拡散先行条件は魅力的であるが、従来の逆問題に調整された一般的な定式化は、ノイズ、多重化、レンズレスの非畳み込み条件の下でしばしば破られる。
本研究では,Null空間拡散優先更新から範囲空間強制を分離する手法が,安定かつ現実的な再構築をもたらすことを観察する。
そこで我々は,Null-Space Diffusion Distillation (NSDD) という,反復DDNM+ソルバのヌル空間成分を蒸留するシングルパスの学生を紹介した。
NSDDは測定一貫性を保ち、ランタイムとメモリのごく一部でペアの監督なしに光現実的な結果を達成する。
Lensless-FFHQ と PhlatCam では、NSDD は Wiener に次いで2番目に高速で、知覚的品質(DDNM+ 以下の第2のLPIPS)、DPS と古典的凸ベースラインを上回っている。
これらの結果は、高速で、地味のない、フォトリアリスティックなレンズレスイメージングへの実践的な道のりを示唆している。
関連論文リスト
- BokehDiff: Neural Lens Blur with One-Step Diffusion [62.59018200914645]
ボケフディフ(BokehDiff)は、物理的に正確で視覚的に魅力的な結果が得られるレンズボウ描画法である。
提案手法では, 画像形成プロセスと整合する自己認識モジュールを物理に着想を得た。
付加雑音を導入することなく1ステップの推論方式に拡散モデルを適応させ,高品質で忠実な結果を得る。
論文 参考訳(メタデータ) (2025-07-24T03:23:19Z) - Optimize the Unseen - Fast NeRF Cleanup with Free Space Prior [18.584828111764832]
フローター」は、特にトレーニングカメラで見えない地域では、新しいビュークオリティを低下させる。
高速でポストホックなNeRFクリーニング手法として,自由空間優先を強制することで,そのようなアーティファクトを除去する手法を提案する。
提案手法は既存のNeRFクリーンアップモデルに匹敵するが, 推定時間では2.5倍高速である。
論文 参考訳(メタデータ) (2024-12-17T10:33:36Z) - PhoCoLens: Photorealistic and Consistent Reconstruction in Lensless Imaging [19.506766336040247]
レンズレスカメラは、従来のレンズベースのシステムと比較して、サイズ、重量、コストにおいて大きな利点がある。
現在のアルゴリズムは、不正確な前方画像モデルと、高品質な画像の再構成に不十分な事前処理に苦慮している。
我々は、一貫したフォトリアリスティックなレンズレス画像再構成のための新しい2段階のアプローチを導入する。
論文 参考訳(メタデータ) (2024-09-26T16:07:24Z) - Learning Single Image Defocus Deblurring with Misaligned Training Pairs [80.13320797431487]
単一画像デフォーカスデブロリングのための連成デブロアリングおよびリブロアリング学習フレームワークを提案する。
我々のフレームワークは、定量的メトリクスと視覚的品質の両方の観点から、デフォーカスデブロワーリングネットワークを向上するために適用することができる。
論文 参考訳(メタデータ) (2022-11-26T07:36:33Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。