論文の概要: Deep Depth from Focal Stack with Defocus Model for Camera-Setting
Invariance
- arxiv url: http://arxiv.org/abs/2202.13055v1
- Date: Sat, 26 Feb 2022 04:21:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 16:44:43.453465
- Title: Deep Depth from Focal Stack with Defocus Model for Camera-Setting
Invariance
- Title(参考訳): カメラ設定不変性のためのデフォーカスモデルを用いた焦点スタックからの深部奥行き推定
- Authors: Yuki Fujimura and Masaaki Iiyama and Takuya Funatomi and Yasuhiro
Mukaigawa
- Abstract要約: シーン深度を推定するための入力として焦点スタックを利用する,フォーカス/デフォーカス(DFF)からの学習に基づく深度を提案する。
提案手法は, 合成ドメインギャップに対して頑健であり, 最先端の性能を示す。
- 参考スコア(独自算出の注目度): 19.460887007137607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a learning-based depth from focus/defocus (DFF), which takes a
focal stack as input for estimating scene depth. Defocus blur is a useful cue
for depth estimation. However, the size of the blur depends on not only scene
depth but also camera settings such as focus distance, focal length, and
f-number. Current learning-based methods without any defocus models cannot
estimate a correct depth map if camera settings are different at training and
test times. Our method takes a plane sweep volume as input for the constraint
between scene depth, defocus images, and camera settings, and this intermediate
representation enables depth estimation with different camera settings at
training and test times. This camera-setting invariance can enhance the
applicability of learning-based DFF methods. The experimental results also
indicate that our method is robust against a synthetic-to-real domain gap, and
exhibits state-of-the-art performance.
- Abstract(参考訳): シーン深度を推定するための入力として焦点スタックを取り入れた,フォーカス/デフォーカス(DFF)からの学習に基づく深度を提案する。
デフォーカスぼけは深度推定に有用な手がかりである。
しかし、ブラーのサイズはシーンの深さだけでなく、焦点距離、焦点距離、f数といったカメラの設定にも依存する。
デフォーカスモデルのない現在の学習ベース手法では、トレーニングやテスト時間でカメラ設定が異なる場合、正確な深度マップを推定できない。
本手法では,シーン深度,デフォーカス画像,カメラ設定の制約を入力として平面スイープボリュームを入力し,この中間表現により,トレーニング時,テスト時に異なるカメラ設定で深度推定を行うことができる。
このカメラ設定不変性は、学習に基づくDFF法の適用性を高めることができる。
実験の結果,本手法は合成ドメインギャップに対して頑健であり,最先端性能を示すことが示された。
関連論文リスト
- Camera-Independent Single Image Depth Estimation from Defocus Blur [6.516967182213821]
光物理方程式を用いて、複数のカメラ関連パラメータがデフォーカスのぼかしにどのように影響するかを示す。
我々は、デフォーカスブラーモデルから奥行きのカメラ独立性能をテストするために、合成データセットを作成する。
論文 参考訳(メタデータ) (2023-11-21T23:14:42Z) - Blur aware metric depth estimation with multi-focus plenoptic cameras [8.508198765617196]
多焦点レンズカメラからの原画像のみを用いた新しい距離深度推定アルゴリズムを提案する。
提案手法は、焦点距離の異なる複数のマイクロレンズを用いるマルチフォーカス構成に特に適している。
論文 参考訳(メタデータ) (2023-08-08T13:38:50Z) - FS-Depth: Focal-and-Scale Depth Estimation from a Single Image in Unseen
Indoor Scene [57.26600120397529]
実際の(見えない)屋内シーンの単一の画像から絶対深度マップを予測するのには、長年不適切な問題だった。
本研究では,未確認屋内シーンの単一画像から絶対深度マップを正確に学習するための焦点・スケール深度推定モデルを開発した。
論文 参考訳(メタデータ) (2023-07-27T04:49:36Z) - Depth and DOF Cues Make A Better Defocus Blur Detector [27.33757097343283]
Defocus blur detection(DBD)は、画像内のin-focus領域とout-of-focus領域を分離する。
以前のアプローチでは、デフォーカスのぼやけた領域に焦点をあてた均一な領域を誤って間違えていた。
我々はD-DFFNetと呼ばれるアプローチを提案し、奥行きとDOFの手がかりを暗黙的に組み込む。
論文 参考訳(メタデータ) (2023-06-20T07:03:37Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - Bridging Unsupervised and Supervised Depth from Focus via All-in-Focus
Supervision [10.547816678110417]
提案手法は、地上の真理深度で監督的に訓練するか、AiF画像で監督的に訓練することができる。
種々の実験において,本手法は定量的かつ定性的に,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-24T17:09:13Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - An End-to-End Autofocus Camera for Iris on the Move [48.14011526385088]
本稿では,焦点可変レンズを用いた移動物体の虹彩領域を能動的に再焦点する高速オートフォーカスカメラを提案する。
我々のエンドツーエンドの計算アルゴリズムは、1つのぼやけた画像からベストフォーカス位置を予測し、自動的にレンズダイオプタ制御信号を生成する。
その結果,静的および動的シーンにおける生体認識のためのカメラの利点が示された。
論文 参考訳(メタデータ) (2021-06-29T03:00:39Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Defocus Deblurring Using Dual-Pixel Data [41.201653787083735]
デフォーカスのぼかしは、広い開口部の使用により被写界深度が浅い画像に現れる。
最新のカメラで検出されるデュアルピクセル(DP)センサで利用可能なデータを活用する,効果的なデフォーカスデブロリング手法を提案する。
論文 参考訳(メタデータ) (2020-05-01T10:38:00Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。