論文の概要: DINO-SD: Champion Solution for ICRA 2024 RoboDepth Challenge
- arxiv url: http://arxiv.org/abs/2405.17102v1
- Date: Mon, 27 May 2024 12:21:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 15:32:42.530586
- Title: DINO-SD: Champion Solution for ICRA 2024 RoboDepth Challenge
- Title(参考訳): DINO-SD:ICRA 2024 RoboDepth Challengeのチャンピオンソリューション
- Authors: Yifan Mao, Ming Li, Jian Liu, Jiayang Liu, Zihan Qin, Chunxi Chu, Jialei Xu, Wenbo Zhao, Junjun Jiang, Xianming Liu,
- Abstract要約: 本稿では,新しいサラウンドビュー深度推定モデルであるDINO-SDを紹介する。
我々のDINO-SDは追加のデータを必要とせず、強い堅牢性を持っている。
DINO-SDは、ICRA 2024 RoboDepth Challengeのトラック4で最高のパフォーマンスを得られる。
- 参考スコア(独自算出の注目度): 54.71866583204417
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Surround-view depth estimation is a crucial task aims to acquire the depth maps of the surrounding views. It has many applications in real world scenarios such as autonomous driving, AR/VR and 3D reconstruction, etc. However, given that most of the data in the autonomous driving dataset is collected in daytime scenarios, this leads to poor depth model performance in the face of out-of-distribution(OoD) data. While some works try to improve the robustness of depth model under OoD data, these methods either require additional training data or lake generalizability. In this report, we introduce the DINO-SD, a novel surround-view depth estimation model. Our DINO-SD does not need additional data and has strong robustness. Our DINO-SD get the best performance in the track4 of ICRA 2024 RoboDepth Challenge.
- Abstract(参考訳): 周囲の視線深度推定は,周囲の視線深度マップを取得するための重要な課題である。
それは、自動運転、AR/VR、そして3D再構成など、現実世界のシナリオに多くの応用がある。
しかし、自律運転データセットのほとんどのデータが昼間のシナリオで収集されていることを考えると、オフ・オブ・ディストリビューション(OoD)データに直面した深度モデルのパフォーマンスは低下する。
OoDデータに基づく深度モデルの堅牢性を向上しようとする研究もあるが、これらの手法には追加のトレーニングデータや湖沼の一般化性が必要である。
本稿では,新しいサラウンドビュー深度推定モデルであるDINO-SDを紹介する。
我々のDINO-SDは追加のデータを必要とせず、強い堅牢性を持っている。
DINO-SDは、ICRA 2024 RoboDepth Challengeのトラック4で最高のパフォーマンスを得られる。
関連論文リスト
- DurLAR: A High-fidelity 128-channel LiDAR Dataset with Panoramic Ambient and Reflectivity Imagery for Multi-modal Autonomous Driving Applications [21.066770408683265]
DurLARはパノラマ環境(近赤外)と反射率画像を備えた高忠実度18チャンネルのLiDARデータセットである。
提案手法は, 自己監督的・自己監督的損失項を, より優れた基礎的真理分解によって実現したことを示すものである。
論文 参考訳(メタデータ) (2024-06-14T14:24:05Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - LiDAR Data Synthesis with Denoising Diffusion Probabilistic Models [1.1965844936801797]
3D LiDARデータの生成モデリングは、自律移動ロボットに有望な応用をもたらす新たな課題である。
我々は,多種多様かつ高忠実な3Dシーンポイント雲を生成可能な,LiDARデータのための新しい生成モデルR2DMを提案する。
本手法は拡散確率モデル (DDPM) を用いて構築され, 生成モデルフレームワークにおいて顕著な結果が得られた。
論文 参考訳(メタデータ) (2023-09-17T12:26:57Z) - NVDS+: Towards Efficient and Versatile Neural Stabilizer for Video Depth Estimation [58.21817572577012]
ビデオ深度推定は時間的に一貫した深度を推定することを目的としている。
プラグ・アンド・プレイ方式で様々な単一画像モデルから推定される不整合深さを安定化するNVDS+を導入する。
このデータセットには、200万フレーム以上の14,203本のビデオが含まれている。
論文 参考訳(メタデータ) (2023-07-17T17:57:01Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - ODIN: Automated Drift Detection and Recovery in Video Analytics [7.292916882993351]
ODINは、ドリフトから自動的に検出し、回復する視覚データ分析システムである。
得られたデータの分布を、以前に見たデータと比較することにより、ドリフトを検出する教師なしアルゴリズムを提案する。
特殊モデルは、正確性、性能、メモリフットプリントにおいて、特殊化されていないモデルよりも優れている。
論文 参考訳(メタデータ) (2020-09-09T12:13:40Z) - DMD: A Large-Scale Multi-Modal Driver Monitoring Dataset for Attention
and Alertness Analysis [54.198237164152786]
視覚は運転監視システム(DMS)の最も豊かで費用対効果の高い技術である
十分に大規模で包括的なデータセットの欠如は、DMS開発の進展のボトルネックとなっている。
本稿では,実運転シナリオとシミュレーション運転シナリオを含む広範囲なデータセットであるドライバモニタリングデータセット(DMD)を紹介する。
論文 参考訳(メタデータ) (2020-08-27T12:33:54Z) - RGB-D Salient Object Detection: A Survey [195.83586883670358]
様々な観点からRGB-Dに基づくSODモデルを総合的に調査する。
また、このドメインからSODモデルと人気のあるベンチマークデータセットもレビューします。
今後の研究に向けたRGB-DベースのSODの課題と方向性について論じる。
論文 参考訳(メタデータ) (2020-08-01T10:01:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。