論文の概要: HoloLens 2 Research Mode as a Tool for Computer Vision Research
- arxiv url: http://arxiv.org/abs/2008.11239v1
- Date: Tue, 25 Aug 2020 19:05:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 04:10:06.891494
- Title: HoloLens 2 Research Mode as a Tool for Computer Vision Research
- Title(参考訳): コンピュータビジョン研究のためのツールとしてのhololens 2研究モード
- Authors: Dorin Ungureanu, Federica Bogo, Silvano Galliani, Pooja Sama, Xin
Duan, Casey Meekhof, Jan St\"uhmer, Thomas J. Cashman, Bugra Tekin, Johannes
L. Sch\"onberger, Pawel Olszta, Marc Pollefeys
- Abstract要約: HoloLens 2 Research Mode、API、および生のセンサーストリームへのアクセスを可能にする一連のツールを紹介します。
APIの概要を提供し、複合現実アプリケーションの構築にどのように使用できるかを説明します。
また、Research Modeセンサーのデータと、目と手の動きの追跡機能を組み合わせる方法についても紹介する。
- 参考スコア(独自算出の注目度): 45.404600947276826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mixed reality headsets, such as the Microsoft HoloLens 2, are powerful
sensing devices with integrated compute capabilities, which makes it an ideal
platform for computer vision research. In this technical report, we present
HoloLens 2 Research Mode, an API and a set of tools enabling access to the raw
sensor streams. We provide an overview of the API and explain how it can be
used to build mixed reality applications based on processing sensor data. We
also show how to combine the Research Mode sensor data with the built-in eye
and hand tracking capabilities provided by HoloLens 2. By releasing the
Research Mode API and a set of open-source tools, we aim to foster further
research in the fields of computer vision as well as robotics and encourage
contributions from the research community.
- Abstract(参考訳): Microsoft HoloLens 2のような混合現実ヘッドセットは、統合コンピューティング機能を備えた強力なセンシングデバイスであり、コンピュータビジョン研究の理想的なプラットフォームとなっている。
本技術報告では,HoloLens 2 Research Mode,API,および生のセンサストリームへのアクセスを可能にする一連のツールを紹介する。
本稿では,このAPIの概要と,センサデータ処理に基づく複合現実感アプリケーションの構築方法について解説する。
また、研究モードセンサデータとhololens 2.0で提供される目と手の動きを追跡する機能を組み合わせる方法も示す。
研究モードapiとオープンソースのツールセットをリリースすることにより、コンピュータビジョンの分野におけるさらなる研究とロボティクスを促進し、研究コミュニティからの貢献を促進することを目指している。
関連論文リスト
- Cambrian-1: A Fully Open, Vision-Centric Exploration of Multimodal LLMs [56.391404083287235]
視覚中心のアプローチで設計したマルチモーダルLLM(MLLM)のファミリーであるCambrian-1を紹介する。
本研究は,様々な視覚表現を評価するためのインタフェースとして,LLMとビジュアルインストラクションチューニングを用いた。
モデルウェイト、コード、サポートツール、データセット、詳細なインストラクションチューニングと評価のレシピを提供しています。
論文 参考訳(メタデータ) (2024-06-24T17:59:42Z) - Detection and Pose Estimation of flat, Texture-less Industry Objects on
HoloLens using synthetic Training [0.0]
現在の最先端の6dポーズ推定は、エッジデバイスにデプロイするには計算集約的すぎる。
本稿では,クライアントサーバをベースとした拡張現実アプリケーションを提案する。
論文 参考訳(メタデータ) (2024-02-07T15:57:28Z) - EasyVolcap: Accelerating Neural Volumetric Video Research [69.59671164891725]
ボリュームビデオは、芸術的パフォーマンス、スポーツイベント、リモート会話などの動的イベントをデジタル的に記録する技術である。
EasyVolcapはPythonとPytorchのライブラリで、マルチビューデータ処理、4Dシーン再構成、効率的なダイナミックボリュームビデオレンダリングのプロセスを統一する。
論文 参考訳(メタデータ) (2023-12-11T17:59:46Z) - Open Gaze: Open Source eye tracker for smartphone devices using Deep Learning [0.0]
本稿では,GooglePaperが提案する方法論をエミュレートした,スマートフォンベースのガウントラッカーのオープンソース実装について述べる。
機械学習技術の統合により、スマートフォンにネイティブな正確な視線追跡ソリューションを公開する。
本研究は眼球運動研究を顕著に増幅する本質的な可能性を示すものである。
論文 参考訳(メタデータ) (2023-08-25T17:10:22Z) - Project Aria: A New Tool for Egocentric Multi-Modal AI Research [44.91047009314488]
将来の拡張現実(AR)デバイスで利用可能な、エゴセントリックでマルチモーダルなデータは、マシン知覚に固有の課題と機会を提供する。
Meta Reality Labs ResearchのチームがAriaデバイスを作った。Ariaは、エゴセントリックでマルチモーダルなデータ記録とストリーミングデバイスで、この分野の研究の促進と加速をねらっている。
論文 参考訳(メタデータ) (2023-08-24T20:42:21Z) - Literature Review: Computer Vision Applications in Transportation
Logistics and Warehousing [58.720142291102135]
輸送物流や倉庫におけるコンピュータビジョンの応用は、プロセスの自動化に大きな可能性を秘めている。
本稿では、この可能性を活用するために、この分野の研究に関する構造化された文献レビューを紹介する。
論文 参考訳(メタデータ) (2023-04-12T17:33:41Z) - Low-cost Efficient Wireless Intelligent Sensor (LEWIS) for Engineering,
Research, and Education [72.2614468437919]
センサによって決定を下すスマートシティのビジョンは、これまで実現されていない。
土木技術者はセンサー技術に関する知識を欠いている。
センサーに関連する電気部品とコンピュータの知識は、土木技術者にとって依然として課題である。
論文 参考訳(メタデータ) (2023-03-23T21:49:26Z) - VRKitchen2.0-IndoorKit: A Tutorial for Augmented Indoor Scene Building
in Omniverse [77.52012928882928]
INDOORKITはNVIDIA OMNIVERSEの組み込みツールキットである。
屋内シーンビルディング、シーンランダム化、アニメーションコントロールのための柔軟なパイプラインを提供する。
論文 参考訳(メタデータ) (2022-06-23T17:53:33Z) - Efficient Pipelines for Vision-Based Context Sensing [0.24366811507669117]
世界中の視界源が出現しており、カメラは道路、社内、モバイルプラットフォームに設置できる。
しかし、ビジョンデータ収集と分析は今でも非常に手作業で行われている。
今日の視覚ベースのコンテキストセンシングシステムには3つの大きな課題がある。
論文 参考訳(メタデータ) (2020-11-01T05:09:13Z) - A 3D-Deep-Learning-based Augmented Reality Calibration Method for
Robotic Environments using Depth Sensor Data [5.027571997864707]
本稿では,3次元深度センサデータを用いた拡張現実デバイスのキャリブレーション手法を提案する。
私たちは、最先端の拡張現実デバイス(ディープラーニングベースのキャリブレーションのためのMicrosoft Hololens)の奥行きカメラを使用しています。
私たちはオープンソースの3Dポイントクラウドラベリングツールを導入しました。
論文 参考訳(メタデータ) (2019-12-27T13:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。