論文の概要: Ego-Motion Alignment from Face Detections for Collaborative Augmented
Reality
- arxiv url: http://arxiv.org/abs/2010.02153v1
- Date: Mon, 5 Oct 2020 16:57:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 21:58:39.632191
- Title: Ego-Motion Alignment from Face Detections for Collaborative Augmented
Reality
- Title(参考訳): 協調拡張現実のための顔検出からの自我運動アライメント
- Authors: Branislav Micusik, Georgios Evangelidis
- Abstract要約: トラッカーエゴとともに互いの顔や眼鏡を検出することは、局所座標系を空間的に関連付けるのに十分な条件を与えることを示す。
検出された眼鏡は、確実にアンカーとして機能し、対象とする実用用途に十分な精度をもたらすことができる。
- 参考スコア(独自算出の注目度): 5.33024001730262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sharing virtual content among multiple smart glasses wearers is an essential
feature of a seamless Collaborative Augmented Reality experience. To enable the
sharing, local coordinate systems of the underlying 6D ego-pose trackers,
running independently on each set of glasses, have to be spatially and
temporally aligned with respect to each other. In this paper, we propose a
novel lightweight solution for this problem, which is referred as ego-motion
alignment. We show that detecting each other's face or glasses together with
tracker ego-poses sufficiently conditions the problem to spatially relate local
coordinate systems. Importantly, the detected glasses can serve as reliable
anchors to bring sufficient accuracy for the targeted practical use. The
proposed idea allows us to abandon the traditional visual localization step
with fiducial markers or scene points as anchors. A novel closed form minimal
solver which solves a Quadratic Eigenvalue Problem is derived and its
refinement with Gaussian Belief Propagation is introduced. Experiments validate
the presented approach and show its high practical potential.
- Abstract(参考訳): 複数のスマートグラス着用者間で仮想コンテンツを共有することは、シームレスなコラボレーション拡張現実体験の重要な特徴である。
共有を可能にするために、基礎となる6Dエゴ配置トラッカーの局所座標系は、それぞれのメガネセット上で独立に動作し、互いに空間的かつ時間的に整合する必要がある。
本稿では,エゴモーションアライメントと呼ばれる,この問題に対する新しい軽量な解法を提案する。
トラッカエゴを併用して顔や眼鏡を検知することで,局所座標系を空間的に関連付ける問題が十分に解決できることを示す。
重要なことに、検出されたメガネは信頼できるアンカーとして機能し、ターゲットとした実用に十分な精度をもたらすことができる。
提案するアイデアは,仮想マーカーやシーンポイントをアンカーとして,従来の視覚的ローカライゼーションステップを放棄することを可能にするものだ。
二次固有値問題を解く新しい閉形式最小解法が導出され、ガウス的信念伝播による洗練が導入される。
実験では,提案手法を検証し,高い実用性を示す。
関連論文リスト
- ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object
Detection [75.22007160699948]
本稿では,不明瞭な画像や映像を観察する際の人間の行動を模倣する,効果的な統合型ピラミッドネットワークを提案する。
具体的には、差別的な混合スケールのセマンティクスを学習するために、ズーム戦略を用いる。
我々のタスクフレンドリーなフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - MOVIN: Real-time Motion Capture using a Single LiDAR [7.3228874258537875]
我々は,グローバルトラッキングを用いたリアルタイムモーションキャプチャのためのデータ駆動生成法MOVINを提案する。
本フレームワークは,パフォーマーの3次元グローバル情報と局所的な関節の詳細を正確に予測する。
実世界のシナリオでメソッドをデモするために,リアルタイムアプリケーションを実装した。
論文 参考訳(メタデータ) (2023-09-17T16:04:15Z) - Rotating Features for Object Discovery [74.1465486264609]
本稿では,複雑な特徴を高次元に一般化した回転特徴と,分散表現からオブジェクトを抽出する新たな評価手法を提案する。
これらの進歩により、分散オブジェクト中心の表現を単純な玩具から現実世界のデータに拡張することが可能になります。
論文 参考訳(メタデータ) (2023-06-01T12:16:26Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - Active Visual Localization in Partially Calibrated Environments [35.48595012305253]
人間は、目立った視覚的な手がかりやランドマークに追われて地図を使わずに、自分自身をしっかりとローカライズすることができる。
この研究では、自律エージェントを同じ能力でエンドウイングすることを目指している。
このような能力はロボットアプリケーションにおいて重要であるが、エージェントが部分的に調整された環境に晒される場合、非常に困難である。
合成データと実データの両方で構成された屋内シーンデータセットACR-6を提案し、アクティブビジュアルローカリゼーションのための困難なシナリオをシミュレートします。
論文 参考訳(メタデータ) (2020-12-08T08:00:55Z) - Unsupervised Metric Relocalization Using Transform Consistency Loss [66.19479868638925]
メートル法再ローカライズを行うためのトレーニングネットワークは、従来、正確な画像対応が必要である。
地図内のクエリ画像のローカライズは、登録に使用される参照画像に関係なく、同じ絶対的なポーズを与えるべきである。
提案手法は, 限られた地下構造情報が得られる場合に, 他の教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-01T19:24:27Z) - Robust On-Manifold Optimization for Uncooperative Space Relative
Navigation with a Single Camera [4.129225533930966]
単分子装置のみを用いて、チェッカー宇宙船に対して対象物体の6次元ポーズを推定するために、革新的なモデルに基づくアプローチが実証された。
複雑な宇宙船エンビザットとランデブー軌道のリアルな合成と実験室のデータセットで検証されている。
論文 参考訳(メタデータ) (2020-05-14T16:23:04Z) - DA4AD: End-to-End Deep Attention-based Visual Localization for
Autonomous Driving [19.02445537167235]
本稿では,自律運転のための新しい注目機能に基づく視覚的位置決めフレームワークを提案する。
提案手法は,LiDARに基づくローカライズソリューションと比較して,競合するローカライズ精度を実現する。
論文 参考訳(メタデータ) (2020-03-06T04:34:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。