論文の概要: Aria Everyday Activities Dataset
- arxiv url: http://arxiv.org/abs/2402.13349v2
- Date: Thu, 22 Feb 2024 03:37:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 11:56:02.880273
- Title: Aria Everyday Activities Dataset
- Title(参考訳): ariaの日次活動データセット
- Authors: Zhaoyang Lv, Nicholas Charron, Pierre Moulon, Alexander Gamino, Cheng
Peng, Chris Sweeney, Edward Miller, Huixuan Tang, Jeff Meissner, Jing Dong,
Kiran Somasundaram, Luis Pesqueira, Mark Schwesinger, Omkar Parkhi, Qiao Gu,
Renzo De Nardi, Shangyi Cheng, Steve Saarinen, Vijay Baiyya, Yuyang Zou,
Richard Newcombe, Jakob Julian Engel, Xiaqing Pan, Carl Ren
- Abstract要約: Aria Everyday Activity (AEA)データセットは、Project Ariaメガネを使用して記録されたエゴセントリックなマルチモーダルオープンデータセットである。
AEAには、地理的に多様な屋内5箇所で、複数の着用者が記録した143の日々の活動シーケンスが含まれている。
- 参考スコア(独自算出の注目度): 36.11937079760597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Aria Everyday Activities (AEA) Dataset, an egocentric multimodal
open dataset recorded using Project Aria glasses. AEA contains 143 daily
activity sequences recorded by multiple wearers in five geographically diverse
indoor locations. Each of the recording contains multimodal sensor data
recorded through the Project Aria glasses. In addition, AEA provides machine
perception data including high frequency globally aligned 3D trajectories,
scene point cloud, per-frame 3D eye gaze vector and time aligned speech
transcription. In this paper, we demonstrate a few exemplar research
applications enabled by this dataset, including neural scene reconstruction and
prompted segmentation. AEA is an open source dataset that can be downloaded
from https://www.projectaria.com/datasets/aea/. We are also providing
open-source implementations and examples of how to use the dataset in Project
Aria Tools https://github.com/facebookresearch/projectaria_tools.
- Abstract(参考訳): Aria Everyday Activity (AEA) Datasetは、Project Aria メガネを用いて記録されたエゴセントリックなマルチモーダルオープンデータセットである。
aeaは、地理的に多様な5つの場所で複数の着用者が記録した143の日常活動シーケンスを含んでいる。
各記録は、project ariaメガネを介して記録されたマルチモーダルセンサデータを含む。
さらに、AEAは、高周波のグローバルな3D軌跡、シーンポイント雲、フレームごとの3D視線ベクトル、時間順の音声書き起こしを含む機械知覚データを提供する。
本稿では,ニューラルシーン再構成やセグメンテーションの促進など,このデータセットで実現可能ないくつかの模範的な研究応用を実証する。
AEAはオープンソースのデータセットで、https://www.projectaria.com/datasets/aea/からダウンロードできる。
オープンソースの実装や、project aria tools https://github.com/facebookresearch/projectaria_toolsでデータセットを使用する方法の例も提供しています。
関連論文リスト
- IPAD: Industrial Process Anomaly Detection Dataset [71.39058003212614]
ビデオ異常検出(VAD)は,ビデオフレーム内の異常を認識することを目的とした課題である。
本稿では,産業シナリオにおけるVADに特化して設計された新しいデータセットIPADを提案する。
このデータセットは16の異なる産業用デバイスをカバーし、合成ビデオと実世界のビデオの両方を6時間以上保存している。
論文 参考訳(メタデータ) (2024-04-23T13:38:01Z) - Den-SOFT: Dense Space-Oriented Light Field DataseT for 6-DOF Immersive Experience [28.651514326042648]
我々は,移動式マルチカメラ大空間高密度光場キャプチャシステムを構築した。
本研究の目的は,一般的な3次元シーン再構築アルゴリズムの開発に貢献することである。
収集されたデータセットは、既存のデータセットよりもはるかに密度が高い。
論文 参考訳(メタデータ) (2024-03-15T02:39:44Z) - TartanAviation: Image, Speech, and ADS-B Trajectory Datasets for
Terminal Airspace Operations [2.738514570149472]
TartanAviationは、画像、音声、およびADS-B軌道データを同時に収集することで、空港環境の全体像を提供する。
タルタンアビエーションは合計で3.1M画像、3374時間の航空交通管制音声データ、661日のADS-B軌道データを提供している。
論文 参考訳(メタデータ) (2024-03-05T23:37:43Z) - Navya3DSeg -- Navya 3D Semantic Segmentation Dataset & split generation
for autonomous vehicles [63.20765930558542]
3Dセマンティックデータは、障害物検出やエゴ-車両の局所化といった中核的な認識タスクに有用である。
そこで我々は,大規模生産段階の運用領域に対応する多様なラベル空間を持つ新しいデータセットであるNavala 3D(Navya3DSeg)を提案する。
ラベルのない23のラベル付きシーケンスと25の補足シーケンスが含まれており、ポイントクラウド上の自己教師付きおよび半教師付きセマンティックセマンティックセグメンテーションベンチマークを探索するために設計された。
論文 参考訳(メタデータ) (2023-02-16T13:41:19Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - OpenREALM: Real-time Mapping for Unmanned Aerial Vehicles [62.997667081978825]
OpenREALMは無人航空機(UAV)のリアルタイムマッピングフレームワークである
異なる操作モードにより、OpenREALMは近似平面場を仮定して単純な縫合を行うことができる。
すべてのモードにおいて、結果のマップの漸進的な進捗は、地上のオペレータによってライブで見ることができる。
論文 参考訳(メタデータ) (2020-09-22T12:28:14Z) - Campus3D: A Photogrammetry Point Cloud Benchmark for Hierarchical
Understanding of Outdoor Scene [76.4183572058063]
複数の屋外シーン理解タスクに対して,リッチな注釈付き3Dポイントクラウドデータセットを提案する。
データセットは階層型ラベルとインスタンスベースのラベルの両方でポイントワイズアノテートされている。
本稿では,3次元点雲分割のための階層的学習問題を定式化し,様々な階層間の整合性を評価することを提案する。
論文 参考訳(メタデータ) (2020-08-11T19:10:32Z) - Robust Image Retrieval-based Visual Localization using Kapture [10.249293519246478]
視覚的ローカライゼーションのための多用途パイプラインを提案する。
8つの公開データセットで評価し、それらが上位にランクされ、その多くが上位にランクされている。
今後の研究を促進するため、我々は、BSDライセンス下でオープンソースであるKaptureフォーマットで、コード、モデル、およびすべてのデータセットをリリースする。
論文 参考訳(メタデータ) (2020-07-27T21:10:35Z) - AU-AIR: A Multi-modal Unmanned Aerial Vehicle Dataset for Low Altitude
Traffic Surveillance [20.318367304051176]
カメラを搭載した無人航空機(UAV)は、空中(バードビュー)画像を撮影する利点がある。
オブジェクトアノテーションによる視覚データを含む、いくつかの空中データセットが導入されている。
本研究では,実環境下で収集されたマルチモーダルセンサデータを有する多目的航空データセット(AU-AIR)を提案する。
論文 参考訳(メタデータ) (2020-01-31T09:45:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。