論文の概要: Project to Adapt: Domain Adaptation for Depth Completion from Noisy and
Sparse Sensor Data
- arxiv url: http://arxiv.org/abs/2008.01034v2
- Date: Wed, 5 Aug 2020 14:46:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 06:40:32.831683
- Title: Project to Adapt: Domain Adaptation for Depth Completion from Noisy and
Sparse Sensor Data
- Title(参考訳): 適応プロジェクト:ノイズおよびスパースセンサデータからの奥行き補完のための領域適応
- Authors: Adrian Lopez-Rodriguez and Benjamin Busam and Krystian Mikolajczyk
- Abstract要約: 実領域や追加センサにアノテーションを付加することなく,合成データから学習した疎深度補完のためのドメイン適応手法を提案する。
提案手法は,RGB+LiDARセットアップにおける実センサノイズをシミュレートし,合成ドメイン内の実LiDAR入力を投影によりシミュレーションし,実雑音LiDARをフィルタリングし,CycleGANアプローチを用いて合成RGB画像に適応する3つのモジュールからなる。
- 参考スコア(独自算出の注目度): 26.050220048154596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth completion aims to predict a dense depth map from a sparse depth input.
The acquisition of dense ground truth annotations for depth completion settings
can be difficult and, at the same time, a significant domain gap between real
LiDAR measurements and synthetic data has prevented from successful training of
models in virtual settings. We propose a domain adaptation approach for
sparse-to-dense depth completion that is trained from synthetic data, without
annotations in the real domain or additional sensors. Our approach simulates
the real sensor noise in an RGB+LiDAR set-up, and consists of three modules:
simulating the real LiDAR input in the synthetic domain via projections,
filtering the real noisy LiDAR for supervision and adapting the synthetic RGB
image using a CycleGAN approach. We extensively evaluate these modules against
the state-of-the-art in the KITTI depth completion benchmark, showing
significant improvements.
- Abstract(参考訳): 深さ完了はスパース深度入力から密度深度マップを予測することを目的としている。
深度設定のための密接な基底真理アノテーションの取得は困難であり、同時に実際のLiDAR測定と合成データのドメインギャップが、仮想設定におけるモデルのトレーニングを成功させるのを妨げている。
実領域や追加センサにアノテーションを付加することなく,合成データから学習した疎深度補完のためのドメイン適応手法を提案する。
提案手法は,RGB+LiDARセットアップにおける実センサノイズをシミュレートし,合成ドメイン内の実LiDAR入力を投影によりシミュレーションし,実雑音LiDARをフィルタリングし,CycleGANアプローチを用いて合成RGB画像に適応する3つのモジュールからなる。
我々は,これらのモジュールをKITTI深度補完ベンチマークの最先端技術に対して広範囲に評価し,大幅な改善を示した。
関連論文リスト
- LiDAR Meta Depth Completion [47.99004789132264]
本稿では,データパターンを用いてタスクネットワークを学習し,与えられた深度完了タスクを効果的に解決するメタ深度補完ネットワークを提案する。
一つのモデルを用いて、異なるLiDARパターンで訓練された非適応ベースラインよりも、はるかに優れた結果が得られる。
これらの利点は、異なるセンサーに単一の深度補完モデルの柔軟な展開を可能にする。
論文 参考訳(メタデータ) (2023-07-24T13:05:36Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Domain Randomization-Enhanced Depth Simulation and Restoration for
Perceiving and Grasping Specular and Transparent Objects [28.84776177634971]
深度復元のための強力なRGBD融合ネットワークSwinDRNetを提案する。
また,ドメインランダム化強化深度シミュレーション(DREDS)によるアクティブステレオ深度システムのシミュレーションも提案する。
我々の深度復元は下流タスクの性能を効果的に向上させることを示す。
論文 参考訳(メタデータ) (2022-08-07T19:17:16Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z) - Consistent Depth Prediction under Various Illuminations using Dilated
Cross Attention [1.332560004325655]
我々は,インターネット3D屋内シーンを用いて照明を手動で調整し,写真リアルなRGB写真とその対応する深度とBRDFマップを作成することを提案する。
異なる照明条件下での深度予測の整合性を維持するため,これらの拡張された特徴に横断的な注意を払っている。
提案手法は,Variデータセットの最先端手法との比較により評価され,実験で有意な改善が見られた。
論文 参考訳(メタデータ) (2021-12-15T10:02:46Z) - Sparse Depth Completion with Semantic Mesh Deformation Optimization [4.03103540543081]
本稿では、RGB画像とスパース深度サンプルを入力とし、完全な深度マップを予測し、最適化後のニューラルネットワークを提案する。
評価結果は,屋内および屋外両方のデータセットにおいて,既存の成果を一貫して上回る結果となった。
論文 参考訳(メタデータ) (2021-12-10T13:01:06Z) - Aug3D-RPN: Improving Monocular 3D Object Detection by Synthetic Images
with Virtual Depth [64.29043589521308]
仮想深度で画像を合成することでトレーニングデータを増強するレンダリングモジュールを提案する。
レンダリングモジュールは、RGB画像と対応するスパース深度画像とを入力として、さまざまなフォトリアリスティック合成画像を出力する。
さらに,深度推定タスクを通じて共同で最適化することで,検出モデルを改善する補助モジュールを導入する。
論文 参考訳(メタデータ) (2021-07-28T11:00:47Z) - S2R-DepthNet: Learning a Generalizable Depth-specific Structural
Representation [63.58891781246175]
人間はリアルなイメージではなくスケッチからシーンの3次元幾何学を推測することができ、空間構造がシーンの深さを理解する上で基本的な役割を果たすことを示す。
我々は,深度推定に不可欠な特徴を捉え,無関係なスタイル情報を無視する,深度特異的な構造表現の学習を初めて行う。
当社のS2R-DepthNetは、合成データでのみ訓練されているにもかかわらず、目に見えない実際のデータに直接一般化できます。
論文 参考訳(メタデータ) (2021-04-02T03:55:41Z) - ePointDA: An End-to-End Simulation-to-Real Domain Adaptation Framework
for LiDAR Point Cloud Segmentation [111.56730703473411]
LiDARデータ上でディープニューラルネットワーク(DNN)をトレーニングするには、大規模なポイントワイドアノテーションが必要である。
シミュレーション・トゥ・リアル・ドメイン適応(SRDA)は、DNNを無制限の合成データと自動生成されたラベルで訓練する。
ePointDAは、自己教師付きドロップアウトノイズレンダリング、統計不変および空間適応型特徴アライメント、転送可能なセグメンテーション学習の3つのモジュールで構成されている。
論文 参考訳(メタデータ) (2020-09-07T23:46:08Z) - Depth Completion via Inductive Fusion of Planar LIDAR and Monocular
Camera [27.978780155504467]
我々は、確率モデルにインスパイアされた異なるセンサのモーダル性をよりよく融合させるインダクティブ遅延融合ブロックを導入する。
このブロックは、疎深度特徴による実演に基づく深度予測を誘導するために、密集したコンテキスト特徴を使用する。
提案手法は,ベンチマークデータセットとシミュレーションデータセットの両方に対する従来のアプローチと比較して有望な結果を示す。
論文 参考訳(メタデータ) (2020-09-03T18:39:57Z) - Decoder Modulation for Indoor Depth Completion [2.099922236065961]
深さの完了は、センサ測定から密度の深い深度マップを復元する。
現在の手法は主に、屋外環境でのLiDARからの非常にスパースな深度測定のために調整されている。
本稿では,これらの地域間の統計的差異を考慮した新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-05-18T11:42:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。