論文の概要: DIML/CVL RGB-D Dataset: 2M RGB-D Images of Natural Indoor and Outdoor
Scenes
- arxiv url: http://arxiv.org/abs/2110.11590v1
- Date: Fri, 22 Oct 2021 05:12:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 14:30:59.354818
- Title: DIML/CVL RGB-D Dataset: 2M RGB-D Images of Natural Indoor and Outdoor
Scenes
- Title(参考訳): DIML/CVL RGB-Dデータセット:2M RGB-Dによる自然室内・屋外シーンの画像
- Authors: Jaehoon Cho, Dongbo Min, Youngjung Kim, Kwanghoon Sohn
- Abstract要約: このデータセットは、2M色の画像と、様々な自然の屋内・屋外のシーンから対応する深度マップで構成されている。
屋内データセットはMicrosoft Kinect v2を使用して構築され、屋外データセットはステレオカメラを使用して構築された。
- 参考スコア(独自算出の注目度): 71.68217324952228
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This manual is intended to provide a detailed description of the DIML/CVL
RGB-D dataset. This dataset is comprised of 2M color images and their
corresponding depth maps from a great variety of natural indoor and outdoor
scenes. The indoor dataset was constructed using the Microsoft Kinect v2, while
the outdoor dataset was built using the stereo cameras (ZED stereo camera and
built-in stereo camera). Table I summarizes the details of our dataset,
including acquisition, processing, format, and toolbox. Refer to Section II and
III for more details.
- Abstract(参考訳): このマニュアルは、DIML/CVL RGB-Dデータセットの詳細な説明を提供する。
このデータセットは、2M色の画像と、様々な自然の屋内・屋外シーンの深度マップで構成されている。
屋内データセットはMicrosoft Kinect v2を使用して構築され、屋外データセットはステレオカメラ(ZEDステレオカメラと内蔵ステレオカメラ)を使用して構築された。
テーブルiは、買収、処理、フォーマット、ツールボックスを含むデータセットの詳細を要約します。
詳細は第2節および第3節を参照。
関連論文リスト
- Depth-based Privileged Information for Boosting 3D Human Pose Estimation on RGB [48.31210455404533]
ヒートマップに基づく3Dポーズ推定器は、推定時に与えられるRGBフレームから深度情報を幻覚することができる。
深度情報は、RGBベースの幻覚ネットワークを強制して、深度データのみに基づいて事前訓練されたバックボーンに類似した特徴を学習することによって、トレーニング中にのみ使用される。
論文 参考訳(メタデータ) (2024-09-17T11:59:34Z) - LSE-NeRF: Learning Sensor Modeling Errors for Deblured Neural Radiance Fields with RGB-Event Stereo [14.792361875841095]
本稿では,高速なカメラ動作であっても,クリアなニューラルレージアンス場(NeRF)を再構築する手法を提案する。
両眼で撮影した(青)RGB画像とイベントカメラデータの両方を活用している。
論文 参考訳(メタデータ) (2024-09-09T23:11:46Z) - 360 in the Wild: Dataset for Depth Prediction and View Synthesis [66.58513725342125]
大規模な360$circ$ビデオデータセットを野放しに導入する。
このデータセットはインターネットから慎重に取り除かれ、世界中で様々な場所から収集されている。
データセットを構成する25K画像のそれぞれに、それぞれのカメラのポーズと深さマップが提供される。
論文 参考訳(メタデータ) (2024-06-27T05:26:38Z) - Enhancing image captioning with depth information using a
Transformer-based framework [3.326320568999945]
本稿では,RGB画像と奥行き情報の統合がキャプションタスクを強化し,より優れた記述を生成することができるかを検討する。
3Dシーンの多文記述を生成するためのトランスフォーマーベースのエンコーダデコーダフレームワークを提案する。
実験はNYU-v2データセットとStanford画像パラグラフキャプションデータセットで実施されている。
論文 参考訳(メタデータ) (2023-07-24T17:31:51Z) - ARKitTrack: A New Diverse Dataset for Tracking Using Mobile RGB-D Data [75.73063721067608]
我々は,AppleのiPhoneおよびiPadに搭載されたコンシューマグレードのLiDARスキャナーによってキャプチャされた静的および動的シーンの両方を対象とした新しいRGB-D追跡データセットを提案する。
ARKitTrackには300のRGB-Dシーケンス、455のターゲット、229.7Kのビデオフレームが含まれている。
詳細な実験分析により,ARKitTrackデータセットがRGB-D追跡を著しく促進し,提案手法が芸術的状況と良好に比較できることが確認された。
論文 参考訳(メタデータ) (2023-03-24T09:51:13Z) - Scale Invariant Semantic Segmentation with RGB-D Fusion [12.650574326251023]
RGB-D画像を用いたスケール不変セマンティックセグメンテーションのためのニューラルネットワークアーキテクチャを提案する。
画素単位のセマンティックセグメンテーションのためのRGBデータに深度情報を組み込んで,屋外シーンにおける異なるスケールオブジェクトに対処する。
我々のモデルはコンパクトであり、他のRGBモデルにも容易に適用できる。
論文 参考訳(メタデータ) (2022-04-10T12:54:27Z) - A Survey on RGB-D Datasets [69.73803123972297]
本稿では,深度情報を含む画像データセットをレビューし,分類した。
アクセス可能なデータを含む203のデータセットを収集し、それらをシーン/オブジェクト、ボディ、医療の3つのカテゴリに分類しました。
論文 参考訳(メタデータ) (2022-01-15T05:35:19Z) - TIMo -- A Dataset for Indoor Building Monitoring with a Time-of-Flight
Camera [9.746370805708095]
タイム・オブ・フライ(ToF)カメラを用いた室内空間の映像監視用データセットTIMoについて述べる。
その結果生まれたディープビデオは、さまざまな事前定義されたアクションを実行する人々を特徴付けている。
対象とする2つのアプリケーションには、計数と異常検出を行う人物検出がある。
論文 参考訳(メタデータ) (2021-08-27T09:33:11Z) - DSEC: A Stereo Event Camera Dataset for Driving Scenarios [55.79329250951028]
本研究は,イベントカメラを用いた初の高分解能大規模ステレオデータセットを提案する。
データセットは、様々な照明条件で駆動により収集された53のシーケンスを含む。
イベントベースステレオアルゴリズムの開発と評価のための基礎的な真相の相違を提供する。
論文 参考訳(メタデータ) (2021-03-10T12:10:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。