論文の概要: Robust Shape from Focus via Multiscale Directional Dilated Laplacian and Recurrent Network
- arxiv url: http://arxiv.org/abs/2512.10498v1
- Date: Thu, 11 Dec 2025 10:19:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.318917
- Title: Robust Shape from Focus via Multiscale Directional Dilated Laplacian and Recurrent Network
- Title(参考訳): マルチスケール指向性ラプラシアン・リカレントネットワークによるフォーカスからのロバスト形状
- Authors: Khurram Ashfaq, Muhammad Tariq Mahmood,
- Abstract要約: Shape-from-Focus (SFF) は、焦点スタックの焦点変化を分析してシーン深度を推定するパッシブ深度推定手法である。
指向性Dilated Laplacianカーネルを用いたマルチスケールフォーカスボリュームの計算を行うハイブリッドフレームワークを提案する。
提案手法は多種多様な焦点条件における精度と一般化を実現する。
- 参考スコア(独自算出の注目度): 1.7188280334580195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shape-from-Focus (SFF) is a passive depth estimation technique that infers scene depth by analyzing focus variations in a focal stack. Most recent deep learning-based SFF methods typically operate in two stages: first, they extract focus volumes (a per pixel representation of focus likelihood across the focal stack) using heavy feature encoders; then, they estimate depth via a simple one-step aggregation technique that often introduces artifacts and amplifies noise in the depth map. To address these issues, we propose a hybrid framework. Our method computes multi-scale focus volumes traditionally using handcrafted Directional Dilated Laplacian (DDL) kernels, which capture long-range and directional focus variations to form robust focus volumes. These focus volumes are then fed into a lightweight, multi-scale GRU-based depth extraction module that iteratively refines an initial depth estimate at a lower resolution for computational efficiency. Finally, a learned convex upsampling module within our recurrent network reconstructs high-resolution depth maps while preserving fine scene details and sharp boundaries. Extensive experiments on both synthetic and real-world datasets demonstrate that our approach outperforms state-of-the-art deep learning and traditional methods, achieving superior accuracy and generalization across diverse focal conditions.
- Abstract(参考訳): Shape-from-Focus (SFF) は、焦点スタックの焦点変動を分析してシーン深度を推定するパッシブ深度推定手法である。
近年の深層学習に基づくSFF法では,まず重機能エンコーダを用いて焦点ボリューム(焦点スタック全体の焦点距離の1ピクセルあたりの表現)を抽出し,さらに,アーティファクトを導入し,奥行きマップの雑音を増幅する単純な1ステップ集約手法を用いて深度を推定する。
これらの問題に対処するため,我々はハイブリッドフレームワークを提案する。
本手法は,手作り指向性Dilated Laplacian(DDL)カーネルを用いて,従来のマルチスケールフォーカスボリュームを計算し,長距離および指向性フォーカスの変動を捉え,ロバストフォーカスボリュームを形成する。
これらのフォーカスボリュームは軽量でマルチスケールのGRUベースの深度抽出モジュールに供給され、計算効率の低い解像度で初期深度推定を反復的に洗練する。
最後に、再帰ネットワーク内の学習凸アップサンプリングモジュールは、細かなシーンの詳細と鋭い境界を保ちながら、高分解能深度マップを再構成する。
合成と実世界の両方のデータセットに対する大規模な実験により、我々のアプローチは最先端のディープラーニングと従来の手法より優れており、様々な焦点条件において優れた精度と一般化を実現していることが示された。
関連論文リスト
- High-Precision Dichotomous Image Segmentation via Depth Integrity-Prior and Fine-Grained Patch Strategy [23.431898388115044]
高精細度画像から細粒度オブジェクトを抽出する作業として,DIS(High-precision Dichotomous Image segmentation)がある。
既存の方法はジレンマに直面し、非拡散法は効率的に機能するが、弱い意味論による誤検出や誤検出に悩まされる。
単眼深度推定モデルから擬似深度情報を得ると,本質的な意味理解が得られる。
論文 参考訳(メタデータ) (2025-03-08T07:02:28Z) - Marigold-DC: Zero-Shot Monocular Depth Completion with Guided Diffusion [57.08169927189237]
奥行き完了のための既存の手法は、厳密に制約された設定で動作する。
単眼深度推定の進歩に触発されて,画像条件の深度マップ生成として深度補完を再構成した。
Marigold-DCは、単分子深度推定のための事前訓練された潜伏拡散モデルを構築し、試験時間ガイダンスとして深度観測を注入する。
論文 参考訳(メタデータ) (2024-12-18T00:06:41Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Blur aware metric depth estimation with multi-focus plenoptic cameras [8.508198765617196]
多焦点レンズカメラからの原画像のみを用いた新しい距離深度推定アルゴリズムを提案する。
提案手法は、焦点距離の異なる複数のマイクロレンズを用いるマルチフォーカス構成に特に適している。
論文 参考訳(メタデータ) (2023-08-08T13:38:50Z) - Towards Domain-agnostic Depth Completion [28.25756709062647]
既存の深度補完法は、しばしば特定のスパース深度型を目標とし、タスク領域をまたいだ一般化が不十分である。
各種センサで得られたスパース/セミデンス,ノイズ,および低分解能深度マップを完備する手法を提案する。
本手法は,最先端の深度補完法に対して優れたクロスドメイン一般化能力を示す。
論文 参考訳(メタデータ) (2022-07-29T04:10:22Z) - Deep Depth from Focus with Differential Focus Volume [17.505649653615123]
焦点スタック内の最良焦点画素を抽出し,焦点推定から深度を推定するための畳み込みニューラルネットワーク(CNN)を提案する。
ネットワークの重要な革新は、新しいディープディファレンシャルフォーカスボリューム(DFV)である。
論文 参考訳(メタデータ) (2021-12-03T04:49:51Z) - Learning Multi-modal Information for Robust Light Field Depth Estimation [32.64928379844675]
focalスタックからの既存の学習に基づく深さ推定手法は、デフォーカスのぼやけのため、準最適性能に繋がる。
堅牢な光界深度推定のためのマルチモーダル学習法を提案する。
本手法は,2つの光場データセットにおいて,既存の代表手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2021-04-13T06:51:27Z) - Dynamic Fusion Network For Light Field Depth Estimation [32.64928379844675]
本稿では,RGBデータと焦点スタックをフレームワークに組み込んだ動的マルチモーダル学習戦略を提案する。
提案手法の成功は,2つのデータセット上でのアートパフォーマンスの達成によって実証される。
論文 参考訳(メタデータ) (2021-04-13T06:45:11Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。