論文の概要: Poster: Real-Time Object Substitution for Mobile Diminished Reality with
Edge Computing
- arxiv url: http://arxiv.org/abs/2310.14511v1
- Date: Mon, 23 Oct 2023 02:47:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 22:59:51.088221
- Title: Poster: Real-Time Object Substitution for Mobile Diminished Reality with
Edge Computing
- Title(参考訳): Poster:エッジコンピューティングによるモバイルディミネートリアリティのためのリアルタイムオブジェクト置換
- Authors: Hongyu Ke, Haoxin Wang
- Abstract要約: Diminished Reality(DR)はAR(Augmented Reality)の概念上の相反するものと考えられる
DRを使えばユーザーは現実世界から物理的なコンテンツを削除できる。
エッジコンピューティングを用いたモバイルデバイスの没入型・リアルタイムシーン構築を容易にするエンド・ツー・エンドアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 2.2299983745857896
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diminished Reality (DR) is considered as the conceptual counterpart to
Augmented Reality (AR), and has recently gained increasing attention from both
industry and academia. Unlike AR which adds virtual objects to the real world,
DR allows users to remove physical content from the real world. When combined
with object replacement technology, it presents an further exciting avenue for
exploration within the metaverse. Although a few researches have been conducted
on the intersection of object substitution and DR, there is no real-time object
substitution for mobile diminished reality architecture with high quality. In
this paper, we propose an end-to-end architecture to facilitate immersive and
real-time scene construction for mobile devices with edge computing.
- Abstract(参考訳): ファミネート・リアリティ(DR)は拡張現実(AR)の概念に匹敵するものと考えられており、近年、産業と学術の両方から注目を集めている。
現実世界に仮想オブジェクトを追加するARとは異なり、DRはユーザーが現実世界から物理的なコンテンツを削除できる。
オブジェクト置換技術と組み合わせることで、メタバース内の探索にさらにエキサイティングな道が開かれる。
オブジェクト置換とDRの交わりについていくつかの研究がなされているが、高品質な移動体減少現実アーキテクチャのリアルタイムオブジェクト置換は存在しない。
本稿では,エッジコンピューティングを用いたモバイルデバイスの没入型・リアルタイムシーン構築を容易にするエンドツーエンドアーキテクチャを提案する。
関連論文リスト
- Closing the Visual Sim-to-Real Gap with Object-Composable NeRFs [59.12526668734703]
本稿では,オブジェクト合成可能なNeRFモデルであるComposable Object Volume NeRF(COV-NeRF)を紹介する。
COV-NeRFは、実際の画像からオブジェクトを抽出し、それらを新しいシーンに合成し、フォトリアリスティックなレンダリングと多くのタイプの2Dおよび3D監視を生成する。
論文 参考訳(メタデータ) (2024-03-07T00:00:02Z) - Detection and Pose Estimation of flat, Texture-less Industry Objects on
HoloLens using synthetic Training [0.0]
現在の最先端の6dポーズ推定は、エッジデバイスにデプロイするには計算集約的すぎる。
本稿では,クライアントサーバをベースとした拡張現実アプリケーションを提案する。
論文 参考訳(メタデータ) (2024-02-07T15:57:28Z) - Metaverse: A Vision, Architectural Elements, and Future Directions for
Scalable and Realtime Virtual Worlds [24.381786472997355]
Metaverseはバーチャルリアリティーと拡張現実を使って物理的な世界を拡張する見込みがある。
ソーシャルメディアとの対話、仕事のコラボレーション、マーケティングとビジネスの実行、教育、学習、さらにはパーソナライズされたヘルスケアへのアクセスなど、人々に影響を及ぼす可能性がある。
本稿ではメタバース定義の時間的進化について述べる。
論文 参考訳(メタデータ) (2023-08-21T08:23:10Z) - Phone2Proc: Bringing Robust Robots Into Our Chaotic World [50.51598304564075]
Phone2Procは、10分間の電話スキャンと条件付き手続き生成を使用して、トレーニングシーンの分布を作成する方法である。
生成されたシーンは、壁のレイアウトとスキャンからの大きなオブジェクトの配置に条件付けされる。
Phone2Procは、sim-to-real ObjectNavのパフォーマンスで34.7%から70.7%に大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T18:52:27Z) - Deep Billboards towards Lossless Real2Sim in Virtual Reality [20.7032774699291]
ニューラルネットワークを用いて暗黙的に3Dオブジェクトをモデル化するディープビルボードを開発した。
我々のシステムは、商用VRヘッドセットとニューラルレンダリングを実行するサーバーを接続することで、詳細な剛体物体をリアルタイムに高精度にシミュレーションすることができる。
私たちはDeep Billboardsを物理的なインタラクション能力で強化し、スクリーンベースのゲームから没入型VRに古典的なビルボードを適応させました。
論文 参考訳(メタデータ) (2022-08-08T16:16:29Z) - Object Scene Representation Transformer [56.40544849442227]
オブジェクトシーン表現変換(OSRT: Object Scene Representation Transformer)は、新しいビュー合成を通じて、個々のオブジェクト表現が自然に現れる3D中心のモデルである。
OSRTは、既存のメソッドよりもオブジェクトとバックグラウンドの多様性が大きい、はるかに複雑なシーンにスケールする。
光電場パラメトリゼーションと新しいSlot Mixerデコーダのおかげで、合成レンダリングでは桁違いに高速である。
論文 参考訳(メタデータ) (2022-06-14T15:40:47Z) - Class-agnostic Reconstruction of Dynamic Objects from Videos [127.41336060616214]
動的オブジェクトをRGBDや校正ビデオから再構成するためのクラスに依存しないフレームワークであるREDOを紹介する。
我々は2つの新しいモジュールを開発し、まず、時間的視覚的手がかりを集約したピクセル整合性を持つ正準4次元暗黙関数を導入する。
第2に、時間的伝播と集約をサポートするためにオブジェクトのダイナミクスをキャプチャする4D変換モジュールを開発する。
論文 参考訳(メタデータ) (2021-12-03T18:57:47Z) - ObjectFolder: A Dataset of Objects with Implicit Visual, Auditory, and
Tactile Representations [52.226947570070784]
両課題に対処する100のオブジェクトからなるデータセットであるObjectを,2つの重要なイノベーションで紹介する。
まず、オブジェクトは視覚的、聴覚的、触覚的なすべてのオブジェクトの知覚データをエンコードし、多数の多感覚オブジェクト認識タスクを可能にする。
第2に、Objectは統一されたオブジェクト中心のシミュレーションと、各オブジェクトの視覚的テクスチャ、触覚的読み出し、触覚的読み出しに暗黙的な表現を採用しており、データセットの使用が柔軟で共有が容易である。
論文 参考訳(メタデータ) (2021-09-16T14:00:59Z) - HDR Environment Map Estimation for Real-Time Augmented Reality [7.6146285961466]
視野の狭いLDRカメラ画像からHDR環境マップをリアルタイムで推定する手法を提案する。
これにより、鏡から拡散まで、あらゆる材料仕上げの仮想物体に視覚的に訴える反射や陰影を、拡張現実を使って現実の物理的環境にレンダリングすることができる。
論文 参考訳(メタデータ) (2020-11-21T01:01:53Z) - RELATE: Physically Plausible Multi-Object Scene Synthesis Using
Structured Latent Spaces [77.07767833443256]
RELATEは、複数の対話オブジェクトの物理的に可視なシーンとビデオを生成することを学習するモデルである。
オブジェクト中心生成モデリングにおける最先端の手法とは対照的に、RELATEは自然に動的なシーンに拡張し、高い視覚的忠実度のビデオを生成する。
論文 参考訳(メタデータ) (2020-07-02T17:27:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。