論文の概要: A Monocular SLAM-based Multi-User Positioning System with Image Occlusion in Augmented Reality
- arxiv url: http://arxiv.org/abs/2411.10940v1
- Date: Sun, 17 Nov 2024 02:39:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:27:27.753361
- Title: A Monocular SLAM-based Multi-User Positioning System with Image Occlusion in Augmented Reality
- Title(参考訳): 拡張現実における画像排除機能を有する単眼SLAMに基づくマルチユーザ位置決めシステム
- Authors: Wei-Hsiang Lien, Benedictus Kent Chandra, Robin Fischer, Ya-Hui Tang, Shiann-Jang Wang, Wei-En Hsu, Li-Chen Fu,
- Abstract要約: 単眼RGB画像を用いたORB-SLAM2に基づくマルチユーザローカライゼーションシステムを提案する。
このシステムはユーザのローカライゼーションを行うだけでなく、共通の仮想オブジェクトを平面上に配置し、各ユーザがオブジェクトの適切な視点ビューを保持する。
位置情報は、特定のユーザの空間における他のユーザの相対的な位置と動きを提示する中央サーバを介して、ユーザのARデバイス間で渡される。
- 参考スコア(独自算出の注目度): 2.8155732302036176
- License:
- Abstract: In recent years, with the rapid development of augmented reality (AR) technology, there is an increasing demand for multi-user collaborative experiences. Unlike for single-user experiences, ensuring the spatial localization of every user and maintaining synchronization and consistency of positioning and orientation across multiple users is a significant challenge. In this paper, we propose a multi-user localization system based on ORB-SLAM2 using monocular RGB images as a development platform based on the Unity 3D game engine. This system not only performs user localization but also places a common virtual object on a planar surface (such as table) in the environment so that every user holds a proper perspective view of the object. These generated virtual objects serve as reference points for multi-user position synchronization. The positioning information is passed among every user's AR devices via a central server, based on which the relative position and movement of other users in the space of a specific user are presented via virtual avatars all with respect to these virtual objects. In addition, we use deep learning techniques to estimate the depth map of an image from a single RGB image to solve occlusion problems in AR applications, making virtual objects appear more natural in AR scenes.
- Abstract(参考訳): 近年,拡張現実(AR)技術の急速な発展に伴い,マルチユーザ共同体験への需要が高まっている。
シングルユーザエクスペリエンスとは異なり、すべてのユーザの空間的ローカライゼーションを確保し、複数のユーザ間の位置と方向の同期と一貫性を維持することは、大きな課題である。
本稿では,単眼RGB画像を用いたORB-SLAM2に基づくマルチユーザローカライズシステムを提案する。
このシステムは、ユーザのローカライゼーションを行うだけでなく、環境内の平面面(テーブルなど)に共通の仮想オブジェクトを配置し、各ユーザがオブジェクトの適切な視点ビューを保持する。
これらの生成された仮想オブジェクトは、マルチユーザ位置同期のための参照ポイントとして機能する。
位置情報は、その仮想オブジェクトに関する仮想アバターを介して、特定のユーザの空間内の他のユーザの相対的な位置と動きを提示する中央サーバを介して、ユーザのARデバイス間で渡される。
さらに,1枚のRGB画像から画像の深度マップを推定する深層学習技術を用いて,ARアプリケーションにおける閉塞問題を解決することにより,ARシーンにおける仮想オブジェクトをより自然に見せることができる。
関連論文リスト
- GPAvatar: Generalizable and Precise Head Avatar from Image(s) [71.555405205039]
GPAvatarは、1つの前方パスで1つまたは複数の画像から3Dヘッドアバターを再構築するフレームワークである。
提案手法は,忠実なアイデンティティ再構築,正確な表現制御,多視点一貫性を実現する。
論文 参考訳(メタデータ) (2024-01-18T18:56:34Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - AnyDoor: Zero-shot Object-level Image Customization [63.44307304097742]
ユーザが指定した場所の新しいシーンにターゲットオブジェクトをテレポートする機能を備えた拡散ベースのイメージジェネレータであるAnyDoorを紹介する。
我々のモデルは1回のみ訓練され、推論段階では多様なオブジェクトとシーンの組み合わせに懸命に一般化される。
論文 参考訳(メタデータ) (2023-07-18T17:59:02Z) - User-centric Heterogeneous-action Deep Reinforcement Learning for
Virtual Reality in the Metaverse over Wireless Networks [8.513938423514636]
本稿では,Metaverseサーバと複数のVRユーザで構成されるシステムについて考察する。
MetaverseのマルチユーザーVRシナリオでは、ユーザはFPS(Frames Per Second)の異なる特性と要求を持っている。
提案したユーザ中心型DRLアルゴリズムは、ユーザ中心型Critic with Heterogenous Actors (UCHA) と呼ばれる。
論文 参考訳(メタデータ) (2023-02-03T00:12:12Z) - Multi-Camera Lighting Estimation for Photorealistic Front-Facing Mobile
Augmented Reality [6.41726492515401]
照明理解は、モバイル拡張現実(AR)アプリケーションを含む仮想オブジェクト合成において重要な役割を果たす。
本稿では,マルチビュー照明再構成とパラメトリック指向性照明推定を組み合わせることで,デュアルカメラストリーミングを活用して高品質な環境マップを作成することを提案する。
論文 参考訳(メタデータ) (2023-01-15T16:52:59Z) - The Gesture Authoring Space: Authoring Customised Hand Gestures for
Grasping Virtual Objects in Immersive Virtual Environments [81.5101473684021]
本研究は、仮想オブジェクトを現実世界のようにつかむことができる、オブジェクト固有のグリップジェスチャーのためのハンドジェスチャーオーサリングツールを提案する。
提示されたソリューションは、ジェスチャー認識にテンプレートマッチングを使用し、カスタムのカスタマイズされた手の動きを設計および作成するために技術的な知識を必要としない。
本研究は,提案手法を用いて作成したジェスチャーが,ユーザによって他のユーザよりも自然な入力モダリティとして認識されていることを示した。
論文 参考訳(メタデータ) (2022-07-03T18:33:33Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - A Multi-user Oriented Live Free-viewpoint Video Streaming System Based
On View Interpolation [15.575219833681635]
リアルタイムに高密度な仮想ビューを合成するためのCNNベースのビューアルゴリズムを提案する。
また,マルチユーザ指向のストリーミング戦略を備えた,エンドツーエンドのライブビューポイントシステムを構築した。
論文 参考訳(メタデータ) (2021-12-20T15:17:57Z) - SceneGen: Generative Contextual Scene Augmentation using Scene Graph
Priors [3.1969855247377827]
SceneGenは、既存のシーン内の仮想オブジェクトの位置と方向を予測する、生成的コンテキスト拡張フレームワークである。
SceneGenはセグメンテーションされたシーンを入力として、仮想コンテンツを置くための位置と向きの確率マップを出力する。
オブジェクト, オブジェクト群, 部屋間の明確な位相特性をカプセル化した空間的シーングラフ表現を定式化する。
そこで本研究では,オブジェクトをリアルタイムに拡張可能な拡張現実アプリケーションを開発した。
論文 参考訳(メタデータ) (2020-09-25T18:36:27Z) - Augment Yourself: Mixed Reality Self-Augmentation Using Optical
See-through Head-mounted Displays and Physical Mirrors [49.49841698372575]
光シークレットヘッドマウントディスプレイ(OST HMD)は、仮想オブジェクトと物理シーンを融合して、没入型複合現実(MR)環境をユーザに提供するための重要な技術のひとつです。
我々は,OST HMDと物理ミラーを組み合わせて自己拡張を実現し,ユーザを中心とした没入型MR環境を提供する,新しいコンセプトとプロトタイプシステムを提案する。
我々のシステムでは、まず第一に、HMDに取り付けられたRGBDカメラを用いて鏡によって生成された仮想画像中のユーザのポーズを推定し、仮想オブジェクトを反射に固定する。
論文 参考訳(メタデータ) (2020-07-06T16:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。