論文の概要: Virtual KITTI 2
- arxiv url: http://arxiv.org/abs/2001.10773v1
- Date: Wed, 29 Jan 2020 12:13:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 21:38:02.958955
- Title: Virtual KITTI 2
- Title(参考訳): Virtual KITTI 2
- Authors: Yohann Cabon, Naila Murray, Martin Humenberger
- Abstract要約: 本稿では、よく知られたVirtual KITTIデータセットの更新版を紹介する。
データセットは、KITTI追跡ベンチマークから5つのシークエンスクローンで構成されている。
各シーケンスに対して、RGB、深さ、クラスセグメンテーション、インスタンスセグメンテーション、フロー、シーンフローデータを含む複数の画像セットを提供する。
- 参考スコア(独自算出の注目度): 13.390646987475163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces an updated version of the well-known Virtual KITTI
dataset which consists of 5 sequence clones from the KITTI tracking benchmark.
In addition, the dataset provides different variants of these sequences such as
modified weather conditions (e.g. fog, rain) or modified camera configurations
(e.g. rotated by 15 degrees). For each sequence, we provide multiple sets of
images containing RGB, depth, class segmentation, instance segmentation, flow,
and scene flow data. Camera parameters and poses as well as vehicle locations
are available as well. In order to showcase some of the dataset's capabilities,
we ran multiple relevant experiments using state-of-the-art algorithms from the
field of autonomous driving. The dataset is available for download at
https://europe.naverlabs.com/Research/Computer-Vision/Proxy-Virtual-Worlds.
- Abstract(参考訳): 本稿では、KITTI追跡ベンチマークから5つのシークエンスクローンからなる、よく知られたVirtual KITTIデータセットの更新版を紹介する。
さらにデータセットは、天候条件の変更(霧、雨など)やカメラ構成の変更(例えば15度回転)といった、これらのシーケンスの異なるバリエーションを提供する。
各シーケンスに対して、RGB、深さ、クラスセグメンテーション、インスタンスセグメンテーション、フロー、シーンフローデータを含む複数の画像セットを提供する。
カメラのパラメータやポーズ、車両の位置も利用できる。
データセットのいくつかの機能を示すために、自律運転の分野から最先端のアルゴリズムを使用して、複数の関連する実験を行った。
データセットはhttps://europe.naverlabs.com/Research/Computer-Vision/Proxy-Virtual-Worldsでダウンロードできる。
関連論文リスト
- NWPU-MOC: A Benchmark for Fine-grained Multi-category Object Counting in
Aerial Images [64.92809155168595]
本稿では,空中画像中の異なる物体の数を推定する多カテゴリオブジェクトカウントタスクを提案する。
このタスクのデータセットが存在しないことを考慮して、大規模なデータセットが収集され、解像度が1024$times$1024ピクセルの3,416のシーンで構成されている。
本稿では,RGB と NIR の特徴を融合させるために,デュアルアテンションモジュールを用いたマルチスペクトル・マルチカテゴリオブジェクトカウントフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-19T07:12:36Z) - CoVR-2: Automatic Data Construction for Composed Video Retrieval [59.854331104466254]
Composed Image Retrieval (CoIR) はテキストと画像のクエリを一緒に考えるタスクとして最近人気を集めている。
本稿では,ビデオキャプションペアのトリプレットを生成する,スケーラブルな自動データセット作成手法を提案する。
また、コンポジションビデオ検索(CoVR)を含むタスクの範囲を広げる。
論文 参考訳(メタデータ) (2023-08-28T17:55:33Z) - ARKitTrack: A New Diverse Dataset for Tracking Using Mobile RGB-D Data [75.73063721067608]
我々は,AppleのiPhoneおよびiPadに搭載されたコンシューマグレードのLiDARスキャナーによってキャプチャされた静的および動的シーンの両方を対象とした新しいRGB-D追跡データセットを提案する。
ARKitTrackには300のRGB-Dシーケンス、455のターゲット、229.7Kのビデオフレームが含まれている。
詳細な実験分析により,ARKitTrackデータセットがRGB-D追跡を著しく促進し,提案手法が芸術的状況と良好に比較できることが確認された。
論文 参考訳(メタデータ) (2023-03-24T09:51:13Z) - SUPS: A Simulated Underground Parking Scenario Dataset for Autonomous
Driving [41.221988979184665]
SUPSは地下自動駐車のシミュレーションデータセットである。
複数のセンサーと連続したイメージに合わせた複数のセマンティックラベルを備えた複数のタスクをサポートする。
また、我々のデータセット上で、最先端のSLAMアルゴリズムと知覚モデルを評価する。
論文 参考訳(メタデータ) (2023-02-25T02:59:12Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - HPointLoc: Point-based Indoor Place Recognition using Synthetic RGB-D
Images [58.720142291102135]
本稿では,屋内環境における視覚的位置認識能力の探索を目的とした,HPointLocという新しいデータセットを提案する。
データセットは人気のあるHabitatシミュレータに基づいており、独自のセンサーデータとオープンデータセットの両方を使用して屋内シーンを生成することができる。
論文 参考訳(メタデータ) (2022-12-30T12:20:56Z) - Scale Invariant Semantic Segmentation with RGB-D Fusion [12.650574326251023]
RGB-D画像を用いたスケール不変セマンティックセグメンテーションのためのニューラルネットワークアーキテクチャを提案する。
画素単位のセマンティックセグメンテーションのためのRGBデータに深度情報を組み込んで,屋外シーンにおける異なるスケールオブジェクトに対処する。
我々のモデルはコンパクトであり、他のRGBモデルにも容易に適用できる。
論文 参考訳(メタデータ) (2022-04-10T12:54:27Z) - Visible-Thermal UAV Tracking: A Large-Scale Benchmark and New Baseline [80.13652104204691]
本稿では,可視熱UAV追跡(VTUAV)のための高多様性の大規模ベンチマークを構築する。
本稿では, フレームレベルの属性を, チャレンジ固有のトラッカーの可能性を利用するための粗粒度属性アノテーションを提案する。
さらに,様々なレベルでRGB-Tデータを融合するHMFT(Hierarchical Multi-modal Fusion Tracker)という新しいRGB-Tベースラインを設計する。
論文 参考訳(メタデータ) (2022-04-08T15:22:33Z) - TICaM: A Time-of-flight In-car Cabin Monitoring Dataset [10.845284058153837]
TICaMは、単一の広角深度カメラを使用して車両内部の監視のための飛行中キャビンモニタリングデータセットです。
運転中の動作の総括的リストを記録し,マルチモーダルなラベル付き画像を提供する。
実際の記録に加えて,同種の画像とアノテーションを用いた車内キャビン画像の合成データセットを提供する。
論文 参考訳(メタデータ) (2021-03-22T10:48:45Z) - Learning to Sort Image Sequences via Accumulated Temporal Differences [27.41266294612776]
ハンドヘルドカメラで捉えた動的シーンの非順序画像群を時間的にシークエンシングする問題に対処する。
本稿では、2次元畳み込みカーネルを通して空間情報をキャプチャする畳み込みブロックを提案する。
提案手法は最先端の手法よりも有意なマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T12:34:05Z) - Robust Image Retrieval-based Visual Localization using Kapture [10.249293519246478]
視覚的ローカライゼーションのための多用途パイプラインを提案する。
8つの公開データセットで評価し、それらが上位にランクされ、その多くが上位にランクされている。
今後の研究を促進するため、我々は、BSDライセンス下でオープンソースであるKaptureフォーマットで、コード、モデル、およびすべてのデータセットをリリースする。
論文 参考訳(メタデータ) (2020-07-27T21:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。