論文の概要: MIPI 2023 Challenge on RGB+ToF Depth Completion: Methods and Results
- arxiv url: http://arxiv.org/abs/2304.13916v1
- Date: Thu, 27 Apr 2023 02:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 14:34:18.549983
- Title: MIPI 2023 Challenge on RGB+ToF Depth Completion: Methods and Results
- Title(参考訳): MIPI 2023 RGB+ToF深度補完の課題:方法と結果
- Authors: Qingpeng Zhu, Wenxiu Sun, Yuekun Dai, Chongyi Li, Shangchen Zhou,
Ruicheng Feng, Qianhui Sun, Chen Change Loy, Jinwei Gu, Yi Yu, Yangke Huang,
Kang Zhang, Meiya Chen, Yu Wang, Yongchao Li, Hao Jiang, Amrit Kumar Muduli,
Vikash Kumar, Kunal Swami, Pankaj Kumar Bajpai, Yunchao Ma, Jiajun Xiao, Zhi
Ling
- Abstract要約: 深層学習により、RGB画像からの深度マップのより正確で効率的な完成と、粗いToF測定が可能になった。
異なる深度補完法の性能を評価するため,RGB+スパースToF深度補完コンペティションを組織した。
本稿では,競争の結果を提示し,トップパフォーマンス手法の長所と短所を解析する。
- 参考スコア(独自算出の注目度): 76.77266693620425
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Depth completion from RGB images and sparse Time-of-Flight (ToF) measurements
is an important problem in computer vision and robotics. While traditional
methods for depth completion have relied on stereo vision or structured light
techniques, recent advances in deep learning have enabled more accurate and
efficient completion of depth maps from RGB images and sparse ToF measurements.
To evaluate the performance of different depth completion methods, we organized
an RGB+sparse ToF depth completion competition. The competition aimed to
encourage research in this area by providing a standardized dataset and
evaluation metrics to compare the accuracy of different approaches. In this
report, we present the results of the competition and analyze the strengths and
weaknesses of the top-performing methods. We also discuss the implications of
our findings for future research in RGB+sparse ToF depth completion. We hope
that this competition and report will help to advance the state-of-the-art in
this important area of research. More details of this challenge and the link to
the dataset can be found at https://mipi-challenge.org/MIPI2023.
- Abstract(参考訳): コンピュータビジョンやロボティクスにおいて,RGB画像からの深度補正と疎度飛行時間(ToF)測定は重要な問題である。
従来の奥行き完了の方法はステレオビジョンや構造化光技術に依存しているが、最近のディープラーニングの進歩により、rgb画像からの奥行きマップの精度と効率のよい補完が可能となり、sparse tof測定も可能になった。
異なる深度補完法の性能を評価するため,RGB+スパースToF深度補完コンペティションを組織した。
このコンペティションは、さまざまなアプローチの精度を比較するための標準化されたデータセットと評価指標を提供することで、この分野の研究を促進することを目的としていた。
本報告では,競争の結果を提示し,トップパフォーマンス手法の強みと弱みについて分析する。
また,RGB+スパースToF深度化における今後の研究の意義についても論じる。
この競争と報告が、この重要な研究分野における最先端の進展に役立つことを期待している。
この課題の詳細とデータセットへのリンクは、https://mipi-challenge.org/mipi2023にある。
関連論文リスト
- RGB Guided ToF Imaging System: A Survey of Deep Learning-based Methods [30.34690112905212]
RGBカメラをToFイメージングシステムに統合することは、現実世界を知覚するための重要な技術となっている。
本稿では, ネットワーク構造, 学習戦略, 評価指標, ベンチマークデータセット, 客観的関数など, RGBガイドによるToFイメージングに関する研究を包括的にレビューする。
論文 参考訳(メタデータ) (2024-05-16T17:59:58Z) - Depth-Relative Self Attention for Monocular Depth Estimation [23.174459018407003]
ディープニューラルネットワークは、RGB情報から抽出されたサイズ、日陰、テクスチャなど、さまざまな視覚的ヒントに依存している。
本稿では,相対深度を自己注意のガイダンスとして用いたRelative Depth Transformer (RED-T) という新しい深度推定モデルを提案する。
提案モデルでは, 単分子深度推定ベンチマークにおいて, 競合する結果が得られ, RGB情報に偏りが小さいことを示す。
論文 参考訳(メタデータ) (2023-04-25T14:20:31Z) - MIPI 2022 Challenge on RGB+ToF Depth Completion: Dataset and Report [92.61915017739895]
本稿では,新しい画像センサと撮像アルゴリズムに着目した5つのトラックを含むMIPIの最初の課題を紹介する。
参加者にはTetrasRGBDという,高品質な合成RGB+Depthトレーニングデータ18万組と,混合ソースからの2.3万組のテストデータを含む,新たなデータセットが提供される。
最終結果は客観的指標と平均オピニオンスコア(MOS)を主観的に評価する。
論文 参考訳(メタデータ) (2022-09-15T05:31:53Z) - Learning an Efficient Multimodal Depth Completion Model [11.740546882538142]
RGB画像ガイドによるスパース深度補完は近年広く注目されているが、まだいくつかの問題に直面している。
提案手法は軽量なアーキテクチャで最先端の手法より優れている。
また、MIPI2022 RGB+TOFディープ・コンプリート・チャレンジでも優勝している。
論文 参考訳(メタデータ) (2022-08-23T07:03:14Z) - Pyramidal Attention for Saliency Detection [30.554118525502115]
本稿では,RGB画像のみを活用し,RGBから深度を推定し,中間深度特性を利用する。
ピラミッド型アテンション構造を用いて,マルチレベル畳み込み変換器の特徴を抽出し,初期表現の処理を行う。
我々は8つのRGBおよびRGB-Dデータセット上で21と40の最先端SOD法に対する性能を著しく改善したことを報告した。
論文 参考訳(メタデータ) (2022-04-14T06:57:46Z) - Efficient Depth Completion Using Learned Bases [94.0808155168311]
深度補正のための新しい大域的幾何制約を提案する。
低次元部分空間上によく配置される深さ写像を仮定することにより、高密度深度写像は全解像度の主深度基底の重み付け和で近似することができる。
論文 参考訳(メタデータ) (2020-12-02T11:57:37Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。