論文の概要: Ego-Motion Alignment from Face Detections for Collaborative Augmented
Reality
- arxiv url: http://arxiv.org/abs/2010.02153v1
- Date: Mon, 5 Oct 2020 16:57:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 21:58:39.632191
- Title: Ego-Motion Alignment from Face Detections for Collaborative Augmented
Reality
- Title(参考訳): 協調拡張現実のための顔検出からの自我運動アライメント
- Authors: Branislav Micusik, Georgios Evangelidis
- Abstract要約: トラッカーエゴとともに互いの顔や眼鏡を検出することは、局所座標系を空間的に関連付けるのに十分な条件を与えることを示す。
検出された眼鏡は、確実にアンカーとして機能し、対象とする実用用途に十分な精度をもたらすことができる。
- 参考スコア(独自算出の注目度): 5.33024001730262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sharing virtual content among multiple smart glasses wearers is an essential
feature of a seamless Collaborative Augmented Reality experience. To enable the
sharing, local coordinate systems of the underlying 6D ego-pose trackers,
running independently on each set of glasses, have to be spatially and
temporally aligned with respect to each other. In this paper, we propose a
novel lightweight solution for this problem, which is referred as ego-motion
alignment. We show that detecting each other's face or glasses together with
tracker ego-poses sufficiently conditions the problem to spatially relate local
coordinate systems. Importantly, the detected glasses can serve as reliable
anchors to bring sufficient accuracy for the targeted practical use. The
proposed idea allows us to abandon the traditional visual localization step
with fiducial markers or scene points as anchors. A novel closed form minimal
solver which solves a Quadratic Eigenvalue Problem is derived and its
refinement with Gaussian Belief Propagation is introduced. Experiments validate
the presented approach and show its high practical potential.
- Abstract(参考訳): 複数のスマートグラス着用者間で仮想コンテンツを共有することは、シームレスなコラボレーション拡張現実体験の重要な特徴である。
共有を可能にするために、基礎となる6Dエゴ配置トラッカーの局所座標系は、それぞれのメガネセット上で独立に動作し、互いに空間的かつ時間的に整合する必要がある。
本稿では,エゴモーションアライメントと呼ばれる,この問題に対する新しい軽量な解法を提案する。
トラッカエゴを併用して顔や眼鏡を検知することで,局所座標系を空間的に関連付ける問題が十分に解決できることを示す。
重要なことに、検出されたメガネは信頼できるアンカーとして機能し、ターゲットとした実用に十分な精度をもたらすことができる。
提案するアイデアは,仮想マーカーやシーンポイントをアンカーとして,従来の視覚的ローカライゼーションステップを放棄することを可能にするものだ。
二次固有値問題を解く新しい閉形式最小解法が導出され、ガウス的信念伝播による洗練が導入される。
実験では,提案手法を検証し,高い実用性を示す。
関連論文リスト
- Grounding 3D Scene Affordance From Egocentric Interactions [52.5827242925951]
接地型3Dシーンアベイランスは、3D環境におけるインタラクティブな領域を見つけることを目的としている。
我々は,エゴセントリックなインタラクションから3Dシーンの空き時間を確保するという,新しい課題を紹介した。
論文 参考訳(メタデータ) (2024-09-29T10:46:19Z) - Learning Where to Look: Self-supervised Viewpoint Selection for Active Localization using Geometrical Information [68.10033984296247]
本稿では, 位置決めの精度を高めるために, 視点選択の重要性を強調し, アクティブな位置決め領域について検討する。
私たちのコントリビューションは、リアルタイム操作用に設計されたシンプルなアーキテクチャ、自己教師付きデータトレーニング方法、および実世界のロボティクスアプリケーションに適した計画フレームワークにマップを一貫して統合する能力による、データ駆動型アプローチの使用に関するものです。
論文 参考訳(メタデータ) (2024-07-22T12:32:09Z) - Self-Localized Collaborative Perception [49.86110931859302]
我々は,新しい自己局在型協調認識システムであるMathttCoBEVGlue$を提案する。
$mathttCoBEVGlue$は、エージェント間の相対的なポーズを提供する新しい空間アライメントモジュールである。
$mathttCoBEVGlue$は任意のローカライゼーションノイズとアタックの下で最先端の検出性能を達成する。
論文 参考訳(メタデータ) (2024-06-18T15:26:54Z) - GLACE: Global Local Accelerated Coordinate Encoding [66.87005863868181]
シーン座標回帰法は小規模なシーンでは有効であるが、大規模シーンでは重大な課題に直面している。
本研究では,事前学習したグローバルおよびローカルのエンコーディングを統合したGLACEを提案する。
提案手法は,低マップサイズモデルを用いて,大規模シーンにおける最先端結果を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:59:50Z) - MOVIN: Real-time Motion Capture using a Single LiDAR [7.3228874258537875]
我々は,グローバルトラッキングを用いたリアルタイムモーションキャプチャのためのデータ駆動生成法MOVINを提案する。
本フレームワークは,パフォーマーの3次元グローバル情報と局所的な関節の詳細を正確に予測する。
実世界のシナリオでメソッドをデモするために,リアルタイムアプリケーションを実装した。
論文 参考訳(メタデータ) (2023-09-17T16:04:15Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - Active Visual Localization in Partially Calibrated Environments [35.48595012305253]
人間は、目立った視覚的な手がかりやランドマークに追われて地図を使わずに、自分自身をしっかりとローカライズすることができる。
この研究では、自律エージェントを同じ能力でエンドウイングすることを目指している。
このような能力はロボットアプリケーションにおいて重要であるが、エージェントが部分的に調整された環境に晒される場合、非常に困難である。
合成データと実データの両方で構成された屋内シーンデータセットACR-6を提案し、アクティブビジュアルローカリゼーションのための困難なシナリオをシミュレートします。
論文 参考訳(メタデータ) (2020-12-08T08:00:55Z) - Robust On-Manifold Optimization for Uncooperative Space Relative
Navigation with a Single Camera [4.129225533930966]
単分子装置のみを用いて、チェッカー宇宙船に対して対象物体の6次元ポーズを推定するために、革新的なモデルに基づくアプローチが実証された。
複雑な宇宙船エンビザットとランデブー軌道のリアルな合成と実験室のデータセットで検証されている。
論文 参考訳(メタデータ) (2020-05-14T16:23:04Z) - DA4AD: End-to-End Deep Attention-based Visual Localization for
Autonomous Driving [19.02445537167235]
本稿では,自律運転のための新しい注目機能に基づく視覚的位置決めフレームワークを提案する。
提案手法は,LiDARに基づくローカライズソリューションと比較して,競合するローカライズ精度を実現する。
論文 参考訳(メタデータ) (2020-03-06T04:34:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。