論文の概要: Single-Image Depth from Defocus with Coded Aperture and Diffusion Posterior Sampling
- arxiv url: http://arxiv.org/abs/2509.17427v1
- Date: Mon, 22 Sep 2025 07:20:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.260858
- Title: Single-Image Depth from Defocus with Coded Aperture and Diffusion Posterior Sampling
- Title(参考訳): Coded Aperture and Diffusion Posterior Smpling を用いたデフォーカスからの単画像深度
- Authors: Hodaka Kawachi, Jose Reinaldo Cunha Santos A. V. Silva Neto, Yasushi Yagi, Hajime Nagahara, Tomoya Nakamura,
- Abstract要約: 符号化開口画像のための単一ショット深度デフォーカス(DFD)再構成法を提案する。
我々のフレームワークは、微分可能フォワードモデルを介して測定一貫性を強制する。
提案手法では,デフォーカス-RGBDトレーニングデータをペア化する必要はなく,特定のカメラ構成にトレーニングを関連付けない。
- 参考スコア(独自算出の注目度): 13.649334163219677
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a single-snapshot depth-from-defocus (DFD) reconstruction method for coded-aperture imaging that replaces hand-crafted priors with a learned diffusion prior used purely as regularization. Our optimization framework enforces measurement consistency via a differentiable forward model while guiding solutions with the diffusion prior in the denoised image domain, yielding higher accuracy and stability than clas- sical optimization. Unlike U-Net-style regressors, our approach requires no paired defocus-RGBD training data and does not tie training to a specific camera configuration. Experiments on comprehensive simulations and a prototype camera demonstrate consistently strong RGBD reconstructions across noise levels, outperforming both U-Net baselines and a classical coded- aperture DFD method.
- Abstract(参考訳): そこで本研究では,手作りの先行画像から学習拡散に置き換える単一ショット深度デフォーカス(DFD)再構成法を提案する。
我々の最適化フレームワークは、微分された画像領域の拡散に先立って解を導きながら、微分可能フォワードモデルによる測定一貫性を強制し、クラス・シカル最適化よりも高い精度と安定性をもたらす。
U-Netスタイルの回帰器とは異なり、当社のアプローチではデフォーカス-RGBDトレーニングデータをペア化する必要はなく、特定のカメラ構成にトレーニングを関連付けない。
総合シミュレーションとプロトタイプカメラの実験では、ノイズレベルにわたって連続的に強いRGBD再構成を示し、U-Netベースラインと古典的符号化アパーチャDFD法の両方に優れていた。
関連論文リスト
- Plug-and-play Diffusion Models for Image Compressive Sensing with Data Consistency Projection [11.296566218142521]
プラグイン・アンド・プレイ(プレイ)法とインプリシット・インプリシット・モデル(DDIM)の関連性について検討する。
我々は、学習した事前を物理フォワードモデルと原則的に統合する統一的なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-09-11T11:30:31Z) - BokehDiff: Neural Lens Blur with One-Step Diffusion [53.11429878683807]
ボケフディフ(BokehDiff)は、物理的に正確で視覚的に魅力的な結果が得られるレンズボウ描画法である。
提案手法では, 画像形成プロセスと整合する自己認識モジュールを物理に着想を得た。
付加雑音を導入することなく1ステップの推論方式に拡散モデルを適応させ,高品質で忠実な結果を得る。
論文 参考訳(メタデータ) (2025-07-24T03:23:19Z) - DiffSCI: Zero-Shot Snapshot Compressive Imaging via Iterative Spectral
Diffusion Model [18.25548360119976]
マルチスペクトル画像(MSI)におけるスナップショット圧縮画像(SCI)再構成の精度向上を目指した。
DiffSCIと呼ばれる新しいゼロショット拡散モデルを提案する。
我々は,DiffSCIが自己監督的,ゼロショット的アプローチよりも顕著な性能向上を示すことを示すため,広範囲な試験を行った。
論文 参考訳(メタデータ) (2023-11-19T20:27:14Z) - A Fast Alternating Minimization Algorithm for Coded Aperture Snapshot
Spectral Imaging Based on Sparsity and Deep Image Priors [8.890754092562918]
Coded Aperture snapshot Spectrum Imaging (CASSI)は、3次元ハイパースペクトル画像(HSI)を再構成する技術である。
本稿では,自然画像の空間と深部画像の先行値(Fama-P)に基づいて,高速な変動最小化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-12T03:29:14Z) - NerfingMVS: Guided Optimization of Neural Radiance Fields for Indoor
Multi-view Stereo [97.07453889070574]
本稿では,従来のSfM再構成と学習に基づく先行手法を併用した多視点深度推定手法を提案する。
提案手法は室内シーンにおける最先端手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-09-02T17:54:31Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - Real-Time, Deep Synthetic Aperture Sonar (SAS) Autofocus [34.77467193499518]
合成開口ソナー(sas)は、送信/受信波形の正確な飛行時間計測を必要とする。
これを解決するために、画像再構成後の後処理ステップとして、Emphautofocusアルゴリズムを用いて、画像フォーカスを改善する。
これらの限界を克服し、データ駆動方式で重み付け関数を暗黙的に学習するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-18T15:16:29Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。