論文の概要: Does it work outside this benchmark? Introducing the Rigid Depth
Constructor tool, depth validation dataset construction in rigid scenes for
the masses
- arxiv url: http://arxiv.org/abs/2103.15970v1
- Date: Mon, 29 Mar 2021 22:01:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 05:38:42.978976
- Title: Does it work outside this benchmark? Introducing the Rigid Depth
Constructor tool, depth validation dataset construction in rigid scenes for
the masses
- Title(参考訳): このベンチマークの外で動作しますか?
Rigid Depth Constructorツールの導入, 大衆のための厳密なシーンにおける深度検証データセット構築
- Authors: Cl\'ement Pinard, Antoine Manzanera
- Abstract要約: ナビゲーションのための独自の深度検証データセットを構築するためのプロトコルを紹介します。
Rigid Depth ConstructorのRCCは、既存の技術よりもアクセスしやすく、安価になることを目指している。
また,評価アルゴリズムから洞察力のある情報を得るためのテストスイートも開発した。
- 参考スコア(独自算出の注目度): 1.294486861344922
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a protocol to construct your own depth validation dataset for
navigation. This protocol, called RDC for Rigid Depth Constructor, aims at
being more accessible and cheaper than already existing techniques, requiring
only a camera and a Lidar sensor to get started. We also develop a test suite
to get insightful information from the evaluated algorithm. Finally, we take
the example of UAV videos, on which we test two depth algorithms that were
initially tested on KITTI and show that the drone context is dramatically
different from in-car videos. This shows that a single context benchmark should
not be considered reliable, and when developing a depth estimation algorithm,
one should benchmark it on a dataset that best fits one's particular needs,
which often means creating a brand new one. Along with this paper we provide
the tool with an open source implementation and plan to make it as
user-friendly as possible, to make depth dataset creation possible even for
small teams. Our key contributions are the following: We propose a complete,
open-source and almost fully automatic software application for creating
validation datasets with densely annotated depth, adaptable to a wide variety
of image, video and range data. It includes selection tools to adapt the
dataset to specific validation needs, and conversion tools to other dataset
formats. Using this application, we propose two new real datasets, outdoor and
indoor, readily usable in UAV navigation context. Finally as examples, we show
an evaluation of two depth prediction algorithms, using a collection of
comprehensive (e.g. distribution based) metrics.
- Abstract(参考訳): 我々は,ナビゲーションのための奥行き検証データセットを構築するプロトコルを提案する。
rdc for rigid depth constructorと呼ばれるこのプロトコルは、既存の技術よりもアクセスしやすく、安価で、カメラとlidarセンサーだけで始めることを目指している。
また,評価アルゴリズムから洞察力のある情報を得るためのテストスイートも開発した。
最後に、UAVビデオの例を取り、KITTIで最初にテストされた2つの深度アルゴリズムをテストし、ドローンのコンテキストが車内ビデオと劇的に異なることを示す。
これは、単一のコンテキストベンチマークは信頼性を考慮すべきではなく、深さ推定アルゴリズムを開発する際には、特定のニーズに最も適したデータセットでそれをベンチマークする必要があることを示している。
本稿では,このツールにオープンソース実装を提供し,可能な限りユーザフレンドリにすることで,小規模なチームでも詳細なデータセット作成を可能にする。
我々は、様々な画像、ビデオ、範囲のデータに適応し、密に注釈された深さの検証データセットを作成するための、完全で、オープンソースでほぼ完全に自動化されたソフトウェアアプリケーションを提案する。
特定の検証ニーズにデータセットを適用するための選択ツールと、他のデータセットフォーマットへの変換ツールが含まれている。
このアプリケーションを用いて,UAVナビゲーションのコンテキストで容易に使用可能な,屋外と屋内の2つの新しいデータセットを提案する。
最後に、包括的(例えば、)の集合を用いて、2つの深さ予測アルゴリズムの評価を示す。
分布に基づく)メトリクス。
関連論文リスト
- Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data [87.61900472933523]
この研究は、ロバストな単分子深度推定のための非常に実用的な解であるDepth Anythingを提示する。
データエンジンを設計し、大規模な未ラベルデータの収集と注釈付けを自動的に行うことにより、データセットをスケールアップします。
6つのパブリックデータセットとランダムにキャプチャされた写真を含む、ゼロショットの機能を広範囲に評価する。
論文 参考訳(メタデータ) (2024-01-19T18:59:52Z) - Metrically Scaled Monocular Depth Estimation through Sparse Priors for
Underwater Robots [0.0]
三角特徴量からのスパース深度測定を融合して深度予測を改善する深度学習モデルを定式化する。
このネットワークは、前方に見える水中データセットFLSeaで教師ありの方法で訓練されている。
この方法は、ラップトップGPUで160FPS、単一のCPUコアで7FPSで実行することで、リアルタイムのパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-25T16:32:31Z) - V-DETR: DETR with Vertex Relative Position Encoding for 3D Object
Detection [73.37781484123536]
DETRフレームワークを用いた点雲のための高性能な3次元物体検出器を提案する。
限界に対処するため,新しい3次元相対位置(3DV-RPE)法を提案する。
挑戦的なScanNetV2ベンチマークで例外的な結果を示す。
論文 参考訳(メタデータ) (2023-08-08T17:14:14Z) - NVDS+: Towards Efficient and Versatile Neural Stabilizer for Video Depth Estimation [58.21817572577012]
ビデオ深度推定は時間的に一貫した深度を推定することを目的としている。
プラグ・アンド・プレイ方式で様々な単一画像モデルから推定される不整合深さを安定化するNVDS+を導入する。
このデータセットには、200万フレーム以上の14,203本のビデオが含まれている。
論文 参考訳(メタデータ) (2023-07-17T17:57:01Z) - Lightweight Monocular Depth Estimation with an Edge Guided Network [34.03711454383413]
本稿では,新しいエッジガイド深度推定ネットワーク(EGD-Net)を提案する。
特に、軽量なエンコーダデコーダアーキテクチャから始め、エッジガイダンスブランチを組み込む。
コンテクスト情報とエッジアテンション特徴を集約するために,トランスフォーマーをベースとした機能アグリゲーションモジュールを設計する。
論文 参考訳(メタデータ) (2022-09-29T14:45:47Z) - A Benchmark and a Baseline for Robust Multi-view Depth Estimation [36.02034260946296]
多視点深度推定のためのディープラーニングアプローチは、ビデオからの深度推定または多視点ステレオ設定に使用される。
本稿では,公開データセット上に構築されたRobust Multi-View Depth Benchmarkを紹介する。
この設定では、最近のアプローチはデータセットをまたいだ一般化はしない。
本稿では,既存コンポーネント上に構築されている新しいスケール拡張手法を用いて,マルチビュー深度推定のためのロバストMVDベースラインモデルを提案する。
論文 参考訳(メタデータ) (2022-09-13T17:44:16Z) - 360 Depth Estimation in the Wild -- The Depth360 Dataset and the SegFuse
Network [35.03201732370496]
全方位画像からの一視点深度推定は、自律運転やシーン再構築といった幅広い応用で人気を博している。
本研究ではまず,トレーニングデータ問題に対処するため,Depth360と呼ばれるさまざまな設定の大規模データセットを構築した。
次に、人間の眼を模倣してデータセットから効果的に学習する、エンドツーエンドのマルチタスク学習ネットワークであるSegFuseを提案する。
論文 参考訳(メタデータ) (2022-02-16T11:56:31Z) - Are we ready for beyond-application high-volume data? The Reeds robot
perception benchmark dataset [3.781421673607643]
本稿ではロボット認識アルゴリズムの研究のためにReedsと呼ばれるデータセットを提案する。
このデータセットは、アプリケーション固有のソリューションをテストする環境を提供するのではなく、アルゴリズムに要求されるベンチマーク機会を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-16T23:21:42Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。