論文の概要: BokehDepth: Enhancing Monocular Depth Estimation through Bokeh Generation
- arxiv url: http://arxiv.org/abs/2512.12425v1
- Date: Sat, 13 Dec 2025 18:39:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.253929
- Title: BokehDepth: Enhancing Monocular Depth Estimation through Bokeh Generation
- Title(参考訳): BokehDepth: Bokeh生成による単眼深度推定の強化
- Authors: Hangwei Zhang, Armando Teles Fortes, Tianyi Wei, Xingang Pan,
- Abstract要約: ボケと単分子深度推定は同じレンズ画像幾何学を通して密結合するが、現在の手法ではこの接続を不完全な方法で利用している。
本稿では、ボケ合成を深度予測から切り離し、デフォーカスを補助的な監督不要な幾何学的キューとして扱うフレームワークであるボケデプスを紹介する。
BokehDepthは、深度マップベースのボケベースラインよりも視覚的忠実度を改善し、強い単分子深度基礎モデルの計量精度とロバスト性を一貫して向上させる。
- 参考スコア(独自算出の注目度): 20.27689522928182
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bokeh and monocular depth estimation are tightly coupled through the same lens imaging geometry, yet current methods exploit this connection in incomplete ways. High-quality bokeh rendering pipelines typically depend on noisy depth maps, which amplify estimation errors into visible artifacts, while modern monocular metric depth models still struggle on weakly textured, distant and geometrically ambiguous regions where defocus cues are most informative. We introduce BokehDepth, a two-stage framework that decouples bokeh synthesis from depth prediction and treats defocus as an auxiliary supervision-free geometric cue. In Stage-1, a physically guided controllable bokeh generator, built on a powerful pretrained image editing backbone, produces depth-free bokeh stacks with calibrated bokeh strength from a single sharp input. In Stage-2, a lightweight defocus-aware aggregation module plugs into existing monocular depth encoders, fuses features along the defocus dimension, and exposes stable depth-sensitive variations while leaving downstream decoder unchanged. Across challenging benchmarks, BokehDepth improves visual fidelity over depth-map-based bokeh baselines and consistently boosts the metric accuracy and robustness of strong monocular depth foundation models.
- Abstract(参考訳): ボケと単分子深度推定は同じレンズ画像幾何学を通して密結合するが、現在の手法ではこの接続を不完全な方法で利用している。
高品質なボケレンダリングパイプラインは一般的にノイズの多い深度マップに依存しており、これは予測誤差を可視的アーティファクトに増幅するものである。
本稿では,ボケ合成を深度予測から切り離し,デフォーカスを補助監督不要な幾何学的キューとして扱う2段階フレームワークであるBokehDepthを紹介する。
物理的に誘導可能なボケ生成装置であるStage-1では、強力な事前訓練された画像編集バックボーン上に構築され、単一の鋭い入力からボケの強度を校正した深さのないボケのスタックを生成する。
ステージ2では、軽量なデフォーカス対応アグリゲーションモジュールが既存のモノクルディープエンコーダに接続し、デフォーカス次元に沿って機能を融合し、下流デコーダをそのまま残しながら安定したデフォーカスセンシティブなバリエーションを露呈する。
挑戦的なベンチマークを通じて、BokehDepthは深度マップベースのボケベースラインよりも視覚的忠実度を改善し、強力な単分子深度基礎モデルの計量精度と堅牢性を一貫して向上させる。
関連論文リスト
- Robust Shape from Focus via Multiscale Directional Dilated Laplacian and Recurrent Network [1.7188280334580195]
Shape-from-Focus (SFF) は、焦点スタックの焦点変化を分析してシーン深度を推定するパッシブ深度推定手法である。
指向性Dilated Laplacianカーネルを用いたマルチスケールフォーカスボリュームの計算を行うハイブリッドフレームワークを提案する。
提案手法は多種多様な焦点条件における精度と一般化を実現する。
論文 参考訳(メタデータ) (2025-12-11T10:19:52Z) - BokehFlow: Depth-Free Controllable Bokeh Rendering via Flow Matching [33.101056425502584]
ボケレンダリングは、写真における浅い視野効果をシミュレートし、視覚美学を強化し、興味のある領域への視聴者の注意を誘導する。
本稿では,フローマッチングに基づくボケレンダリングのためのフレームワークであるボケフローを提案する。
BokehFlowは、オールインフォーカス画像から直接フォトリアリスティックなボケ効果を合成し、深度入力を不要にする。
論文 参考訳(メタデータ) (2025-11-19T03:18:58Z) - PFDepth: Heterogeneous Pinhole-Fisheye Joint Depth Estimation via Distortion-aware Gaussian-Splatted Volumetric Fusion [61.6340987158734]
ヘテロジニアス多視点深度推定のための最初のピンホール・フィッシュアイ・フレームワークPFDepthを提案する。
PFDepthは、ピンホールと魚眼カメラの任意の組み合わせを、様々な内在と外生とで処理できる統一アーキテクチャを採用している。
我々は,現在の主流深度ネットワーク上でのKITTI-360およびRealHetデータセットに対して,PFDepthが最先端の性能を示すことを示す。
論文 参考訳(メタデータ) (2025-09-30T09:38:59Z) - Blurry-Edges: Photon-Limited Depth Estimation from Defocused Boundaries [9.723762227632378]
本稿では,光子制限画像から被写体深度を非集束境界に沿って頑健に測定する新しい手法を提案する。
これは新しいイメージパッチ表現であるBlurry-Edgesに基づいており、バウンダリ、色、滑らかさを含む、低レベルのパッチ情報の豊富なセットを明示的に保存し視覚化する。
論文 参考訳(メタデータ) (2025-03-30T22:17:00Z) - Marigold-DC: Zero-Shot Monocular Depth Completion with Guided Diffusion [57.08169927189237]
奥行き完了のための既存の手法は、厳密に制約された設定で動作する。
単眼深度推定の進歩に触発されて,画像条件の深度マップ生成として深度補完を再構成した。
Marigold-DCは、単分子深度推定のための事前訓練された潜伏拡散モデルを構築し、試験時間ガイダンスとして深度観測を注入する。
論文 参考訳(メタデータ) (2024-12-18T00:06:41Z) - Adaptive Stereo Depth Estimation with Multi-Spectral Images Across All Lighting Conditions [58.88917836512819]
本稿では,立体深度推定を取り入れた新しいフレームワークを提案し,正確な幾何学的制約を強制する。
照明の劣化がステレオマッチングに与える影響を軽減するために,劣化マスキングを導入する。
提案手法は,Multi-Spectral Stereo(MS2)データセット上でのSOTA(State-of-the-art)性能を実現する。
論文 参考訳(メタデータ) (2024-11-06T03:30:46Z) - Depth Estimation Based on 3D Gaussian Splatting Siamese Defocus [14.354405484663285]
本稿では,3次元幾何学における深さ推定のための3次元ガウススプラッティングとシームズネットワークに基づく自己教師型フレームワークを提案する。
提案したフレームワークは、人工的に合成されたデータセットと実際のぼやけたデータセットの両方で検証されている。
論文 参考訳(メタデータ) (2024-09-18T21:36:37Z) - A learning-based view extrapolation method for axial super-resolution [52.748944517480155]
軸光界分解能は、再焦点によって異なる深さで特徴を区別する能力を指します。
せん断エピポーラ平面画像の軸体積から新しい視点を推定する学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-11T07:22:13Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。