論文の概要: SANPO: A Scene Understanding, Accessibility, Navigation, Pathfinding,
Obstacle Avoidance Dataset
- arxiv url: http://arxiv.org/abs/2309.12172v1
- Date: Thu, 21 Sep 2023 15:28:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 14:38:13.899674
- Title: SANPO: A Scene Understanding, Accessibility, Navigation, Pathfinding,
Obstacle Avoidance Dataset
- Title(参考訳): sanpo: シーンの理解、アクセシビリティ、ナビゲーション、パスファインディング、障害回避データセット
- Authors: Sagar M. Waghmare, Kimberly Wilber, Dave Hawkey, Xuan Yang, Matthew
Wilson, Stephanie Debats, Cattalyya Nuengsigkapian, Astuti Sharma, Lars
Pandikow, Huisheng Wang, Hartwig Adam, Mikhail Sirotenko
- Abstract要約: 本研究では,屋外環境における密集予測に着目した大規模自我中心のビデオデータセットであるSANPOを紹介する。
様々な屋外環境にまたがって収集されたステレオビデオセッションや、レンダリングされた合成ビデオセッションが含まれる。
私たちの知る限り、これは大規模な汎視的セグメンテーションと深度アノテーションの両方を持つ人間中心のビデオデータセットとしては初めてのものです。
- 参考スコア(独自算出の注目度): 16.4478897707989
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce SANPO, a large-scale egocentric video dataset focused on dense
prediction in outdoor environments. It contains stereo video sessions collected
across diverse outdoor environments, as well as rendered synthetic video
sessions. (Synthetic data was provided by Parallel Domain.) All sessions have
(dense) depth and odometry labels. All synthetic sessions and a subset of real
sessions have temporally consistent dense panoptic segmentation labels. To our
knowledge, this is the first human egocentric video dataset with both large
scale dense panoptic segmentation and depth annotations. In addition to the
dataset we also provide zero-shot baselines and SANPO benchmarks for future
research. We hope that the challenging nature of SANPO will help advance the
state-of-the-art in video segmentation, depth estimation, multi-task visual
modeling, and synthetic-to-real domain adaptation, while enabling human
navigation systems.
SANPO is available here:
https://google-research-datasets.github.io/sanpo_dataset/
- Abstract(参考訳): 我々は,屋外環境における密集した予測に焦点を当てた大規模エゴセントリックビデオデータセットであるsanpoを紹介する。
様々な屋外環境にまたがって収集されたステレオビデオセッションや、合成ビデオセッションが含まれる。
(合成データは並列ドメインによって提供された。)
すべてのセッションには深度と度数ラベルがあります。
すべての合成セッションと実際のセッションのサブセットは、時間的に一貫した汎視的セグメンテーションラベルを持つ。
私たちの知る限り、これは大規模な汎視的セグメンテーションと深度アノテーションを備えた人間中心のビデオデータセットとしては初めてのものです。
データセットに加えて、今後の研究のためにゼロショットベースラインとSANPOベンチマークも提供します。
SANPOの挑戦的な性質は、人間のナビゲーションシステムを実現しつつ、ビデオセグメンテーション、深さ推定、マルチタスク・ビジュアル・モデリング、および合成ドメイン適応の最先端化に役立てられることを期待している。
sanpoはここで入手できる。 https://google-research-datasets.github.io/sanpo_dataset/
関連論文リスト
- OmniHD-Scenes: A Next-Generation Multimodal Dataset for Autonomous Driving [6.426389871517664]
高品質なデータセットは、効率的なデータ駆動自律運転ソリューションの開発に不可欠である。
OmniHD-Scenesは大規模なマルチモーダルデータセットであり、全方位全方位高精細データを提供する。
データセットは1501のクリップで構成され、それぞれ約30秒の長さで、合計450K以上の同期フレームと585万以上の同期センサーデータポイントで構成されている。
論文 参考訳(メタデータ) (2024-12-14T08:08:40Z) - RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - SideSeeing: A multimodal dataset and collection of tools for sidewalk assessment [0.0]
構築された環境を評価するためのツールとデータセットを提供する新しいイニシアティブであるSideSeeingを紹介する。
本稿では,胸部装着型モバイルデバイスから撮影した同期映像とセンサデータを統合する新しいデータセットを提案する。
データセットは、9つの病院の周囲12kmをカバーする3時間のコンテンツを含み、325,000のビデオフレームと対応するセンサーデータを含んでいる。
論文 参考訳(メタデータ) (2024-07-09T00:04:54Z) - Kick Back & Relax++: Scaling Beyond Ground-Truth Depth with SlowTV &
CribsTV [50.616892315086574]
本稿では,SlowTV と CribsTV の2つの新しいデータセットを提案する。
これらは、一般公開されているYouTubeビデオから収集された大規模なデータセットで、合計200万のトレーニングフレームが含まれている。
我々はこれらのデータセットを活用し、ゼロショット一般化の難しい課題に取り組む。
論文 参考訳(メタデータ) (2024-03-03T17:29:03Z) - DNA-Rendering: A Diverse Neural Actor Repository for High-Fidelity
Human-centric Rendering [126.00165445599764]
ニューラルアクターレンダリングのための人間のパフォーマンスデータの大規模かつ高忠実なリポジトリであるDNAレンダリングを提案する。
我々のデータセットには、1500人以上の被験者、5000のモーションシーケンス、67.5Mのフレームのデータボリュームが含まれています。
我々は,最大解像度4096 x 3000の60個の同期カメラと15fpsの速度,ステルカメラキャリブレーションステップを含む,データをキャプチャするプロフェッショナルなマルチビューシステムを構築した。
論文 参考訳(メタデータ) (2023-07-19T17:58:03Z) - CIRCLE: Capture In Rich Contextual Environments [69.97976304918149]
そこで我々は,アクターが仮想世界において知覚し,操作する新たな動き獲得システムを提案する。
9つのシーンにわたる5人の被験者から10時間のフルボディ到達動作を含むデータセットであるCIRCLEを提示する。
このデータセットを用いて、シーン情報に基づいて人間の動きを生成するモデルを訓練する。
論文 参考訳(メタデータ) (2023-03-31T09:18:12Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - HSC4D: Human-centered 4D Scene Capture in Large-scale Indoor-outdoor
Space Using Wearable IMUs and LiDAR [51.9200422793806]
ボディマウントのIMUとLiDARのみを使用することで、HSC4Dは外部機器の制約なしに空間自由となり、マップ無しで事前に構築された地図を作成できる。
人間と環境の関係も研究され、対話をより現実的なものにしている。
論文 参考訳(メタデータ) (2022-03-17T10:05:55Z) - A Multi-viewpoint Outdoor Dataset for Human Action Recognition [3.522154868524807]
我々は,YouTubeと当社のドローンから収集した多視点屋外行動認識データセットを提案する。
データセットは、20の動的なヒューマンアクションクラス、2324のビデオクリップ、503086フレームで構成されている。
全体のベースライン動作認識精度は74.0%である。
論文 参考訳(メタデータ) (2021-10-07T14:50:43Z) - SeaDronesSee: A Maritime Benchmark for Detecting Humans in Open Water [13.216389226310987]
本稿では,大規模ビジュアルオブジェクト検出・追跡ベンチマーク(SeaDronesSee)を紹介する。
我々は,高度5~260mから0~90度までの様々な角度から,40万のインスタンスで54,000以上のフレームを収集,注釈した。
新たに構築したベンチマークをベースラインとして、最新のコンピュータビジョンアルゴリズムを複数評価します。
論文 参考訳(メタデータ) (2021-05-05T08:18:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。