論文の概要: Project Aria: A New Tool for Egocentric Multi-Modal AI Research
- arxiv url: http://arxiv.org/abs/2308.13561v2
- Date: Tue, 12 Sep 2023 20:56:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 17:11:30.462208
- Title: Project Aria: A New Tool for Egocentric Multi-Modal AI Research
- Title(参考訳): Project Aria:エゴセントリックなマルチモーダルAI研究のための新しいツール
- Authors: Kiran Somasundaram, Jing Dong, Huixuan Tang, Julian Straub, Mingfei
Yan, Michael Goesele, Jakob Julian Engel, Renzo De Nardi, Richard Newcombe
- Abstract要約: 将来の拡張現実(AR)デバイスで利用可能な、エゴセントリックでマルチモーダルなデータは、マシン知覚に固有の課題と機会を提供する。
Meta Reality Labs ResearchのチームがAriaデバイスを作った。Ariaは、エゴセントリックでマルチモーダルなデータ記録とストリーミングデバイスで、この分野の研究の促進と加速をねらっている。
- 参考スコア(独自算出の注目度): 4.800869002621643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Egocentric, multi-modal data as available on future augmented reality (AR)
devices provides unique challenges and opportunities for machine perception.
These future devices will need to be all-day wearable in a socially acceptable
form-factor to support always available, context-aware and personalized AI
applications. Our team at Meta Reality Labs Research built the Aria device, an
egocentric, multi-modal data recording and streaming device with the goal to
foster and accelerate research in this area. In this paper, we describe the
Aria device hardware including its sensor configuration and the corresponding
software tools that enable recording and processing of such data.
- Abstract(参考訳): 将来の拡張現実(ar)デバイスで利用可能なエゴセントリックでマルチモーダルなデータは、機械知覚に特有の課題と機会を提供する。
これらの将来のデバイスは、常に利用可能なコンテキスト認識およびパーソナライズされたaiアプリケーションをサポートするために、社会的に受け入れられるフォームファクターとして、一日中ウェアラブルである必要がある。
meta reality labs researchの私たちのチームは、この分野の研究の促進と加速を目的として、エゴセントリックでマルチモーダルなデータ記録とストリーミングデバイスであるaria deviceを開発しました。
本稿では、センサ構成を含むAriaデバイスハードウェアと、そのようなデータの記録と処理を可能にする対応するソフトウェアツールについて述べる。
関連論文リスト
- Aria-NeRF: Multimodal Egocentric View Synthesis [17.0554791846124]
ニューラルラジアンス場(NeRFs)にインスパイアされた可変体積線トレーシングに基づく、エゴセントリックなデータから訓練されたリッチでマルチモーダルなシーンモデルの開発における研究の加速を目指す。
このデータセットは、RGB画像、アイトラッキングカメラの映像、マイクからの音声記録、気圧計による気圧測定、GPSによる位置座標、デュアル周波数IMUデータセット(1kHzと800Hz)の情報を含む、総合的なセンサデータの収集を提供する。
このデータセットで捉えた多様なデータモダリティと現実世界のコンテキストは、人間の行動に対する理解を深め、より没入的でインテリジェントな体験を可能にするための堅牢な基盤となる。
論文 参考訳(メタデータ) (2023-11-11T01:56:35Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - Autonomous Aerial Robot for High-Speed Search and Intercept Applications [86.72321289033562]
高速物体把握のための完全自律飛行ロボットが提案されている。
追加のサブタスクとして、我々のシステムは、表面に近い極にある気球を自律的にピアスすることができる。
我々のアプローチは、挑戦的な国際競争で検証され、優れた結果が得られました。
論文 参考訳(メタデータ) (2021-12-10T11:49:51Z) - How to Reach Real-Time AI on Consumer Devices? Solutions for
Programmable and Custom Architectures [7.085772863979686]
ディープニューラルネットワーク(DNN)は、オブジェクトや音声認識など、さまざまな人工知能(AI)推論タスクにおいて大きな進歩をもたらした。
このようなAIモデルをコモディティデバイスにデプロイすることは、大きな課題に直面している。
クロススタック手法によりリアルタイムな性能を実現する手法を提案する。
論文 参考訳(メタデータ) (2021-06-21T11:23:12Z) - Towards Tool-Support for Interactive-Machine Learning Applications in
the Android Ecosystem [0.0]
機械学習モデルの実装、テスト、デプロイの課題に対処するには、AIエンジニアのためのツールサポートが必要であると考えています。
本稿では,AI技術者へのインタビューや,スマートウォッチとスマートフォンを用いた対話型機械学習ユースケースの実験を含む,一連の質問の予備的結果を示す。
論文 参考訳(メタデータ) (2021-03-27T09:28:40Z) - Reliable Fleet Analytics for Edge IoT Solutions [0.0]
AIoTアプリケーションのエッジで機械学習を容易にするためのフレームワークを提案する。
コントリビューションは、大規模にフリート分析を提供するためのサービス、ツール、メソッドを含むアーキテクチャである。
本稿では,大学キャンパスの部屋でiotデバイスを用いた実験を行うことで,フレームワークの予備検証を行う。
論文 参考訳(メタデータ) (2021-01-12T11:28:43Z) - SensiX: A Platform for Collaborative Machine Learning on the Edge [69.1412199244903]
センサデータとセンサモデルの間に留まるパーソナルエッジプラットフォームであるSensiXを紹介する。
動作および音声に基づくマルチデバイスセンシングシステムの開発において,その有効性を示す。
評価の結果,SensiXは3mWのオーバヘッドを犠牲にして,全体の精度が7~13%向上し,環境のダイナミクスが最大30%向上することがわかった。
論文 参考訳(メタデータ) (2020-12-04T23:06:56Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z) - Integrated Benchmarking and Design for Reproducible and Accessible
Evaluation of Robotic Agents [61.36681529571202]
本稿では,開発とベンチマークを統合した再現性ロボット研究の新しい概念について述べる。
このセットアップの中心的なコンポーネントの1つはDuckietown Autolabであり、これは比較的低コストで再現可能な標準化されたセットアップである。
本研究では,インフラを用いて実施した実験の再現性を解析し,ロボットのハードウェアや遠隔実験室間でのばらつきが低いことを示す。
論文 参考訳(メタデータ) (2020-09-09T15:31:29Z) - HoloLens 2 Research Mode as a Tool for Computer Vision Research [45.404600947276826]
HoloLens 2 Research Mode、API、および生のセンサーストリームへのアクセスを可能にする一連のツールを紹介します。
APIの概要を提供し、複合現実アプリケーションの構築にどのように使用できるかを説明します。
また、Research Modeセンサーのデータと、目と手の動きの追跡機能を組み合わせる方法についても紹介する。
論文 参考訳(メタデータ) (2020-08-25T19:05:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。