論文の概要: $S^3$: Learnable Sparse Signal Superdensity for Guided Depth Estimation
- arxiv url: http://arxiv.org/abs/2103.02396v2
- Date: Thu, 4 Mar 2021 14:06:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 13:01:53.611917
- Title: $S^3$: Learnable Sparse Signal Superdensity for Guided Depth Estimation
- Title(参考訳): S^3$: ガイド深度推定のための学習可能なスパース信号超密度
- Authors: Yu-Kai Huang, Yueh-Cheng Liu, Tsung-Han Wu, Hung-Ting Su, Yu-Cheng
Chang, Tsung-Lin Tsou, Yu-An Wang, and Winston H. Hsu
- Abstract要約: LiDARやRadarなどのスパース信号は、高密度深度推定のガイダンスとして利用されている。
我々は,拡張領域の信頼度を推定しながら,スパースキューから深さ値を拡大する$s3$手法を提案する。
実験はLiDARおよびレーダー信号の$ S3$の技術の有効性、堅牢性および柔軟性を示します。
- 参考スコア(独自算出の注目度): 23.6896619995874
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Dense Depth estimation plays a key role in multiple applications such as
robotics, 3D reconstruction, and augmented reality. While sparse signal, e.g.,
LiDAR and Radar, has been leveraged as guidance for enhancing dense depth
estimation, the improvement is limited due to its low density and imbalanced
distribution. To maximize the utility from the sparse source, we propose $S^3$
technique, which expands the depth value from sparse cues while estimating the
confidence of expanded region. The proposed $S^3$ can be applied to various
guided depth estimation approaches and trained end-to-end at different stages,
including input, cost volume and output. Extensive experiments demonstrate the
effectiveness, robustness, and flexibility of the $S^3$ technique on LiDAR and
Radar signal.
- Abstract(参考訳): Dense Depthの推定は、ロボット工学、3D再構成、拡張現実といった複数のアプリケーションにおいて重要な役割を果たす。
LiDAR や Radar などのスパース信号は高密度深度推定のガイダンスとして利用されているが、密度が低く、分布が不均衡なため改善が制限されている。
スパースソースから有効性を最大化するために,拡張領域の信頼性を推定しながらスパースキューから深さ値を拡張する,$S^3$手法を提案する。
提案した$S^3$は、様々な誘導深度推定手法や、入力、コストボリューム、出力を含む様々な段階で訓練されたエンドツーエンドに適用できる。
広範な実験はLiDARおよびレーダー信号の$S^3$の技術の有効性、堅牢性および柔軟性を示す。
関連論文リスト
- DepthSplat: Connecting Gaussian Splatting and Depth [90.06180236292866]
ガウススプラッティングと深さ推定を結合するDepthSplatを提案する。
まず,事前学習した単眼深度特徴を生かして,頑健な多眼深度モデルを提案する。
また,ガウス的スプラッティングは教師なし事前学習の目的として機能することを示す。
論文 参考訳(メタデータ) (2024-10-17T17:59:58Z) - Uncertainty-guided Optimal Transport in Depth Supervised Sparse-View 3D Gaussian [49.21866794516328]
3次元ガウシアンスプラッティングは、リアルタイムな新規ビュー合成において顕著な性能を示した。
これまでのアプローチでは、3Dガウスの訓練に奥行き監視を取り入れ、オーバーフィッティングを軽減してきた。
本研究では,3次元ガウスの深度分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:18:30Z) - Stereo-LiDAR Depth Estimation with Deformable Propagation and Learned Disparity-Depth Conversion [16.164300644900404]
SDG-Depth という名前のセミデンスヒント誘導を用いた新しいステレオLiDAR深度推定ネットワークを提案する。
我々のネットワークは、学習可能な変形可能なウィンドウを用いてスパースヒントを伝播することにより、半密度のヒントマップと信頼マップを生成する変形可能な伝搬モジュールを含む。
本手法は正確かつ効率的であり, ベンチマーク実験の結果, 優れた性能を示した。
論文 参考訳(メタデータ) (2024-04-11T08:12:48Z) - NeRF-Det++: Incorporating Semantic Cues and Perspective-aware Depth
Supervision for Indoor Multi-View 3D Detection [72.0098999512727]
NeRF-Detは、NeRFを用いた屋内マルチビュー3次元検出において、表現学習の強化による優れた性能を実現している。
セマンティックエンハンスメント(セマンティックエンハンスメント)、パースペクティブ・アウェア・サンプリング(パースペクティブ・アウェア・サンプリング)、および順序深度監視を含む3つのソリューションを提案する。
結果として得られたアルゴリズムであるNeRF-Det++は、ScanNetV2とAR KITScenesデータセットで魅力的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-22T11:48:06Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Efficient Stereo Depth Estimation for Pseudo LiDAR: A Self-Supervised
Approach Based on Multi-Input ResNet Encoder [0.0]
本稿では,レーザセンサの代わりにリアルタイムの擬似点雲を画像センサから取得する手法を提案する。
異なる深さ推定器を用いて,LiDARのような擬似点雲を取得し,より良い性能を得るアプローチを提案する。
論文 参考訳(メタデータ) (2022-05-17T04:42:13Z) - Non-parametric Depth Distribution Modelling based Depth Inference for
Multi-view Stereo [43.415242967722804]
最近のコストボリュームピラミッドに基づくディープニューラルネットワークは、多視点ステレオからの深度推論に高解像度の画像を効率的に活用する可能性を解き放った。
一般に、これらのアプローチは各ピクセルの深さが一様分布に従うと仮定する。
本研究では,非パラメトリック深度分布モデルを用いて,一様および多モード分布の画素を扱うコストボリュームを構築することを提案する。
論文 参考訳(メタデータ) (2022-05-08T05:13:04Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - RVMDE: Radar Validated Monocular Depth Estimation for Robotics [5.360594929347198]
両眼視センサの固有剛性校正は正確な深度推定に不可欠である。
あるいは、単眼カメラは、深度推定の精度を犠牲にして制限を緩和し、厳しい環境条件下では課題が悪化する。
本研究は, 環境条件下での深度推定のために, 単眼カメラの細粒度データと融合した場合のレーダーからの粗い信号の有用性について検討する。
論文 参考訳(メタデータ) (2021-09-11T12:02:29Z) - Shape Prior Non-Uniform Sampling Guided Real-time Stereo 3D Object
Detection [59.765645791588454]
最近導入されたRTS3Dは、深度監督のないオブジェクトの中間表現のための効率的な4次元特徴整合埋め込み空間を構築している。
本研究では, 内部領域で高密度サンプリングを行い, 内部領域でスパースサンプリングを行う非一様サンプリング方式を提案する。
提案手法は,ネットワークパラメータをほとんど含まないAP3dに対して2.57%の改善を実現している。
論文 参考訳(メタデータ) (2021-06-18T09:14:55Z) - DELTAS: Depth Estimation by Learning Triangulation And densification of
Sparse points [14.254472131009653]
多視点ステレオ (MVS) は, 能動深度センシングの精度と単眼深度推定の実用性の間の黄金平均値である。
3次元畳み込みニューラルネットワーク(CNN)を用いたコストボリュームベースのアプローチにより、MVSシステムの精度が大幅に向上した。
まず、(a)興味点の記述子を検出して評価し、次に(b)興味点の小さな集合をマッチングして三角測量し、最後に(c)CNNを用いてこのスパースな3D点の集合を密度化することで、効率的な深さ推定手法を提案する。
論文 参考訳(メタデータ) (2020-03-19T17:56:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。