論文の概要: Towards Sharper Object Boundaries in Self-Supervised Depth Estimation
- arxiv url: http://arxiv.org/abs/2509.15987v1
- Date: Fri, 19 Sep 2025 13:53:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.189312
- Title: Towards Sharper Object Boundaries in Self-Supervised Depth Estimation
- Title(参考訳): 自己監督深度推定におけるシャーパオブジェクト境界に向けて
- Authors: Aurélien Cecille, Stefan Duffner, Franck Davoine, Rémi Agier, Thibault Neveu,
- Abstract要約: 本手法は, 自己超越のみを用いて, 鮮明な深度不連続性を生成する。
我々は画素ごとの深度を混合分布としてモデル化し、複数の可視深度をキャプチャする。
この定式化は既存のパイプラインにシームレスに統合される。
- 参考スコア(独自算出の注目度): 6.93581193918817
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate monocular depth estimation is crucial for 3D scene understanding, but existing methods often blur depth at object boundaries, introducing spurious intermediate 3D points. While achieving sharp edges usually requires very fine-grained supervision, our method produces crisp depth discontinuities using only self-supervision. Specifically, we model per-pixel depth as a mixture distribution, capturing multiple plausible depths and shifting uncertainty from direct regression to the mixture weights. This formulation integrates seamlessly into existing pipelines via variance-aware loss functions and uncertainty propagation. Extensive evaluations on KITTI and VKITTIv2 show that our method achieves up to 35% higher boundary sharpness and improves point cloud quality compared to state-of-the-art baselines.
- Abstract(参考訳): 3次元シーン理解には正確な単眼深度推定が不可欠であるが,既存の手法では物体の境界で深度をぼかすことが多く,刺激的な中間3次元点が生じる。
シャープエッジの達成には,通常極めてきめ細かな監督が必要であるが,本手法は自己監督のみを用いて鮮明な深度不連続を発生させる。
具体的には、画素あたりの深さを混合分布としてモデル化し、複数の可視深さをキャプチャし、直接回帰から混合重量へ不確かさをシフトする。
この定式化は、分散認識損失関数と不確実性伝播を通じて、既存のパイプラインにシームレスに統合される。
KITTIとVKITTIv2の大規模評価により,本手法は境界のシャープネスが最大で35%向上し,最先端のベースラインに比べて点雲品質が向上することが示された。
関連論文リスト
- Marigold-DC: Zero-Shot Monocular Depth Completion with Guided Diffusion [57.08169927189237]
奥行き完了のための既存の手法は、厳密に制約された設定で動作する。
単眼深度推定の進歩に触発されて,画像条件の深度マップ生成として深度補完を再構成した。
Marigold-DCは、単分子深度推定のための事前訓練された潜伏拡散モデルを構築し、試験時間ガイダンスとして深度観測を注入する。
論文 参考訳(メタデータ) (2024-12-18T00:06:41Z) - SharpDepth: Sharpening Metric Depth Predictions Using Diffusion Distillation [17.88798247412388]
SharpDepthは、識別深度推定法の計量精度と、生成法によって通常達成されるきめ細かい境界シャープネスを組み合わせている。
我々の手法は、距離精度と詳細な境界保存を統合することでこれらの制限を橋渡しし、計量的精度と視覚的シャープさの両方の深さ予測をもたらす。
論文 参考訳(メタデータ) (2024-11-27T11:07:27Z) - Unveiling the Depths: A Multi-Modal Fusion Framework for Challenging
Scenarios [103.72094710263656]
本稿では,学習に基づくフレームワークを用いて,支配的モダリティの奥行きを識別し,統合する手法を提案する。
本稿では,信頼度予測ネットワークを操り,潜在電位深度領域を特定する信頼マップを作成する新しい信頼損失を提案する。
得られた信頼度マップを用いて,最終深度をエンドツーエンドに融合するマルチモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-19T04:39:16Z) - Mind The Edge: Refining Depth Edges in Sparsely-Supervised Monocular Depth Estimation [42.19770683222846]
単眼深度推定(MDE)はコンピュータビジョンの基本的な問題であり、多くの応用がある。
本稿では,密集した合成データから深度エッジの位置を検出することを提案する。
いくつかの挑戦的データセットに対して,画素ごとの深度精度を比較検討することにより,深度エッジの精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2022-12-10T14:49:24Z) - Probabilistic Volumetric Fusion for Dense Monocular SLAM [33.156523309257786]
本研究では,高密度単分子SLAMと高速不確実性伝搬を利用して3次元シーンを再構成する手法を提案する。
提案手法は, 極めてノイズの多い深度推定値に対して頑健でありながら, 密集度, 精度, リアルタイムにシーンを3次元再構成することができる。
その結果,本手法は単分子SLAMからの直接拡散深度よりも92%精度が向上し,最大90%の精度向上が得られた。
論文 参考訳(メタデータ) (2022-10-03T23:53:35Z) - Learning Occlusion-Aware Coarse-to-Fine Depth Map for Self-supervised
Monocular Depth Estimation [11.929584800629673]
自己教師付き単眼深度推定のためのOcclusion-aware Coarse-to-Fine Depth Mapを学習するための新しいネットワークを提案する。
提案したOCFD-Netは,粗度深度マップの学習に離散深度制約を用いるだけでなく,シーン深度残差の学習にも連続深度制約を用いる。
論文 参考訳(メタデータ) (2022-03-21T12:43:42Z) - Robust Depth Completion with Uncertainty-Driven Loss Functions [60.9237639890582]
本研究では,不確実性による損失関数を導入し,深度補修の堅牢性を改善し,深度補修の不確実性に対処する。
提案手法は,KITTI深度評価ベンチマークでテストされ,MAE, IMAE, IRMSEの計測値を用いて最先端のロバスト性性能を達成した。
論文 参考訳(メタデータ) (2021-12-15T05:22:34Z) - Deep Multi-view Depth Estimation with Predicted Uncertainty [11.012201499666503]
我々は、高密度光フローネットワークを用いて対応を計算し、点雲を三角測量して初期深度マップを得る。
三角測量の精度をさらに高めるため,画像の文脈に基づく初期深度マップを最適化する深度補正ネットワーク(DRN)を導入する。
論文 参考訳(メタデータ) (2020-11-19T00:22:09Z) - Deep Multi-Scale Feature Learning for Defocus Blur Estimation [10.455763145066168]
本稿では,1つの非焦点画像からエッジベースのデフォーカスボケ推定手法を提案する。
まず、深さの不連続性(ぼかし推定が曖昧な)にあるエッジと、ほぼ一定の深さ領域にあるエッジ(ぼかし推定が適切に定義されたパターンエッジ)とを区別する。
パターンエッジのみにおけるデフォーカスのぼかし量を推定し,検出した深度エッジ間のデータ伝搬を防止し,適切に定義されたオブジェクト境界を持つ濃密なぼかしマップを得るためのガイド付きフィルタに基づくスキームを探索する。
論文 参考訳(メタデータ) (2020-09-24T20:36:40Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。