論文の概要: Single Image Depth Estimation using Wavelet Decomposition
- arxiv url: http://arxiv.org/abs/2106.02022v1
- Date: Thu, 3 Jun 2021 17:42:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 16:07:10.957723
- Title: Single Image Depth Estimation using Wavelet Decomposition
- Title(参考訳): ウェーブレット分解を用いた単一画像深度推定
- Authors: Micha\"el Ramamonjisoa and Michael Firman and Jamie Watson and Vincent
Lepetit and Daniyar Turmukhambetov
- Abstract要約: 単眼画像から精度の高い深度を高効率で予測する新しい手法を提案する。
この最適効率はウェーブレット分解を利用して達成される。
我々はスパースウェーブレット係数を予測して高忠実度深度マップを再構築できることを実証した。
- 参考スコア(独自算出の注目度): 37.486778463181
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel method for predicting accurate depths from monocular
images with high efficiency. This optimal efficiency is achieved by exploiting
wavelet decomposition, which is integrated in a fully differentiable
encoder-decoder architecture. We demonstrate that we can reconstruct
high-fidelity depth maps by predicting sparse wavelet coefficients. In contrast
with previous works, we show that wavelet coefficients can be learned without
direct supervision on coefficients. Instead we supervise only the final depth
image that is reconstructed through the inverse wavelet transform. We
additionally show that wavelet coefficients can be learned in fully
self-supervised scenarios, without access to ground-truth depth. Finally, we
apply our method to different state-of-the-art monocular depth estimation
models, in each case giving similar or better results compared to the original
model, while requiring less than half the multiply-adds in the decoder network.
Code at https://github.com/nianticlabs/wavelet-monodepth
- Abstract(参考訳): 単眼画像から精度の高い深度を高効率で予測する新しい手法を提案する。
この最適効率はウェーブレット分解を利用して達成され、完全に微分可能なエンコーダデコーダアーキテクチャに統合される。
スパースウェーブレット係数を予測して高忠実度深度マップを再構成できることを実証する。
従来の研究とは対照的に、ウェーブレット係数は係数を直接監視することなく学習できることを示した。
代わりに、逆ウェーブレット変換によって再構成される最後の深度画像のみを監督する。
さらに, ウェーブレット係数は, 地中深度を使わずに, 完全に自己教師ありのシナリオで学習できることを示した。
最後に,本手法を,デコーダネットワークの乗算加算を半分以下に抑えながら,従来のモデルとよく似た,あるいはより良い結果が得られるような,最先端の単分子深度推定モデルに適用する。
code at https://github.com/nianticlabs/wavelet-monodepth
関連論文リスト
- WiNet: Wavelet-based Incremental Learning for Efficient Medical Image Registration [68.25711405944239]
深部画像登録は異常な精度と高速な推測を示した。
近年の進歩は、粗大から粗大の方法で密度変形場を推定するために、複数のカスケードまたはピラミッドアーキテクチャを採用している。
本稿では,様々なスケールにわたる変位/速度場に対して,スケールワイブレット係数を漸進的に推定するモデル駆動WiNetを提案する。
論文 参考訳(メタデータ) (2024-07-18T11:51:01Z) - Hi-Map: Hierarchical Factorized Radiance Field for High-Fidelity
Monocular Dense Mapping [51.739466714312805]
ニューラルラジアンス場(NeRF)に基づく新しいモノクリン高密度マッピング手法であるHi-Mapを導入する。
ハイマップは、RGB入力のみを用いた効率的かつ高忠実なマッピングを実現する能力において例外的である。
論文 参考訳(メタデータ) (2024-01-06T12:32:25Z) - Metrically Scaled Monocular Depth Estimation through Sparse Priors for
Underwater Robots [0.0]
三角特徴量からのスパース深度測定を融合して深度予測を改善する深度学習モデルを定式化する。
このネットワークは、前方に見える水中データセットFLSeaで教師ありの方法で訓練されている。
この方法は、ラップトップGPUで160FPS、単一のCPUコアで7FPSで実行することで、リアルタイムのパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-25T16:32:31Z) - AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - Dynamic Frame Interpolation in Wavelet Domain [57.25341639095404]
ビデオフレームは、より流動的な視覚体験のためにフレームレートを上げることができる、重要な低レベルな計算ビジョンタスクである。
既存の手法は、高度なモーションモデルと合成ネットワークを利用することで大きな成功を収めた。
WaveletVFIは、同様の精度を維持しながら最大40%の計算を削減できるため、他の最先端技術に対してより効率的に処理できる。
論文 参考訳(メタデータ) (2023-09-07T06:41:15Z) - Single Image Depth Prediction Made Better: A Multivariate Gaussian Take [163.14849753700682]
本稿では,画素ごとの深度を連続的にモデル化する手法を提案する。
提案手法の精度(MG)は,KITTI深度予測ベンチマークリーダーボードの上位に位置する。
論文 参考訳(メタデータ) (2023-03-31T16:01:03Z) - Towards the Probabilistic Fusion of Learned Priors into Standard
Pipelines for 3D Reconstruction [31.55322925389011]
我々はディープニューラルネットワークを訓練し、個々のピクセルの深さの離散的非パラメトリックな確率分布を1つの画像から予測する。
次に、この「確率容積」を、その後のフレームと画像との間の光度整合性に基づいて、別の確率体積と融合する。
論文 参考訳(メタデータ) (2022-07-27T11:28:49Z) - FaDIV-Syn: Fast Depth-Independent View Synthesis [27.468361999226886]
高速深度に依存しないビュー合成法であるFaDIV-Synを紹介する。
我々の多視点アプローチは、ビュー合成法がしばしば深度推定段階によって制限される問題に対処する。
論文 参考訳(メタデータ) (2021-06-24T16:14:01Z) - Differentiable Diffusion for Dense Depth Estimation from Multi-view
Images [31.941861222005603]
深度マップへの拡散がRGB監督からの多視点再投射誤差を最小限に抑えるように、細かな点集合を最適化することにより、深度を推定する手法を提案する。
また,複雑なシーン再構成に必要な50k以上のポイントを同時に最適化できる効率的な最適化ルーチンを開発した。
論文 参考訳(メタデータ) (2021-06-16T16:17:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。