論文の概要: Semantic Communication-Enabled Cloud-Edge-End-collaborative Metaverse Services Architecure
- arxiv url: http://arxiv.org/abs/2506.10001v1
- Date: Sat, 08 Mar 2025 19:07:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-22 23:32:14.426994
- Title: Semantic Communication-Enabled Cloud-Edge-End-collaborative Metaverse Services Architecure
- Title(参考訳): Semantic Communication-Enabled Cloud-Edge-End-Collaborative Metaverse Services Architecure
- Authors: Yuxuan Li, Sheng Jinag, Bizhu Wang,
- Abstract要約: SC-CEE-Metaは,VRビデオセマンティックトランスミッション,ビデオ合成,3次元仮想シーン再構成の3つのモジュールを含む。
SC-CEE-Metaは、無線伝送遅延を96.05%削減し、画質を43.99%向上させることができる。
- 参考スコア(独自算出の注目度): 4.383085134007795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With technology advancing and the pursuit of new audiovisual experiences strengthening, the metaverse has gained surging enthusiasm. However, it faces practical hurdles as substantial data like high-resolution virtual scenes must be transmitted between cloud platforms and VR devices. Specifically, the VR device's wireless transmission hampered by insufficient bandwidth, causes speed and delay problems. Meanwhile, poor channel quality leads to data errors and worsens user experience. To solve this, we've proposed the Semantic Communication-Enabled Cloud-Edge-End Collaborative Immersive Metaverse Service (SC-CEE-Meta) Architecture, which includes three modules: VR video semantic transmission, video synthesis, and 3D virtual scene reconstruction. By deploying semantic modules on VR devices and edge servers and sending key semantic info instead of focusing on bit-level reconstruction, it can cut latency, resolve the resource-bandwidth conflict, and better withstand channel interference. Also, the cloud deploys video synthesis and 3D scene reconstruction preprocessing, while edge devices host 3D reconstruction rendering modules, all for immersive services. Verified on Meta Quest Pro, the SC-CEE-Meta can reduce wireless transmission delay by 96.05\% and boost image quality by 43.99\% under poor channel condition.
- Abstract(参考訳): テクノロジーの進歩と新たな視聴覚体験の追求により、メタバースはますます熱狂的になってきた。
しかし、高解像度の仮想シーンのような実質的なデータは、クラウドプラットフォームとVRデバイス間で送信されなければならないため、現実的なハードルに直面している。
特に、VRデバイスの無線伝送は帯域不足によって妨げられ、速度と遅延の問題を引き起こす。
一方、チャンネル品質の低さはデータエラーを招き、ユーザーエクスペリエンスを悪化させる。
これを解決するために、私たちは、VRビデオセマンティックトランスミッション、ビデオ合成、および3D仮想シーン再構築の3つのモジュールを含むSemantic Communication-Enabled Cloud-Edge-End Collaborative Immersive Metaverse Service (SC-CEE-Meta) Architectureを提案しました。
VRデバイスやエッジサーバにセマンティックモジュールをデプロイし、ビットレベルの再構築ではなく、キーセマンティック情報を送信することによって、レイテンシを削減し、リソース帯域間の競合を解消し、チャネルの干渉に耐えることができる。
また、クラウドはビデオ合成と3Dシーン再構築の事前処理をデプロイし、エッジデバイスは3D再構成レンダリングモジュールをホストし、すべて没入型サービスを提供している。
Meta Quest Proで確認されたSC-CEE-Metaは、無線伝送遅延を96.05\%削減し、画質を43.99\%低下させる。
関連論文リスト
- iVR-GS: Inverse Volume Rendering for Explorable Visualization via Editable 3D Gaussian Splatting [8.689359004580258]
本稿では,ガウススプラッティング(iVR-GS)による逆ボリュームレンダリングを提案する。
iVR-GSは、インタラクティブなボリューム探索のためのシーン編集を可能にしながら、レンダリングコストを削減する。
我々は,他のNVSソリューションと比較して,iVR-GSの再現性や構成性に優れることを示す。
論文 参考訳(メタデータ) (2025-04-24T21:56:53Z) - DSPNet: Dual-vision Scene Perception for Robust 3D Question Answering [106.96097136553105]
3次元質問回答(3D QA)では、テキストによって記述された位置の3Dシーンを理解し、周囲の環境を判断し、その状況下での質問に答える必要がある。
既存の手法は通常、純粋な3次元点雲からのグローバルなシーン認識に依存しており、マルチビュー画像からのリッチな局所テクスチャの詳細の重要性を見落としている。
本稿では,DSPNet(Dual-vision Scene Perception Network)を提案する。
論文 参考訳(メタデータ) (2025-03-05T05:13:53Z) - VideoLifter: Lifting Videos to 3D with Fast Hierarchical Stereo Alignment [63.21396416244634]
VideoLifterは、ローカルからグローバルへの戦略を断片的に活用する、新しいビデオから3Dパイプラインである。
再建プロセスを大幅に加速し、訓練時間を82%以上削減し、現在のSOTA法よりも視覚的品質を向上した。
論文 参考訳(メタデータ) (2025-01-03T18:52:36Z) - Distributed Radiance Fields for Edge Video Compression and Metaverse
Integration in Autonomous Driving [13.536641570721798]
メタバースは 物理的な要素と デジタル要素を組み合わせた 仮想空間だ 没入型で接続された デジタル世界を創りだす
デジタルツイン(DT)は仮想プロトタイピング、予測などを提供する。
DTは、現実世界の幾何学、外観、ダイナミクスをキャプチャする3Dシーン再構成手法で作成することができる。
論文 参考訳(メタデータ) (2024-02-22T15:39:58Z) - Federated Multi-View Synthesizing for Metaverse [52.59476179535153]
メタバースは没入型エンターテイメント、教育、ビジネスアプリケーションを提供すると期待されている。
無線ネットワーク上のバーチャルリアリティ(VR)伝送は、データと計算集約である。
我々は,メタバースにおける無線コンテンツ配信のために,効率的な合成,記憶,通信資源を提供する,新しい多視点合成フレームワークを開発した。
論文 参考訳(メタデータ) (2023-12-18T13:51:56Z) - Spatiotemporal Attention-based Semantic Compression for Real-time Video
Recognition [117.98023585449808]
本稿では,各フレームにおけるフレームと画素の重要性を評価するために,時間的注意に基づくオートエンコーダ(STAE)アーキテクチャを提案する。
我々は3D-2D CNNを組み合わせた軽量デコーダを開発し、欠落した情報を再構成する。
実験の結果,VT_STAEはビデオデータセットH51を,5%の精度で104倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2023-05-22T07:47:27Z) - Towards a Pipeline for Real-Time Visualization of Faces for VR-based
Telepresence and Live Broadcasting Utilizing Neural Rendering [58.720142291102135]
バーチャルリアリティー用のヘッドマウントディスプレイ(HMD)は、VRにおける現実的な対面会話にかなりの障害をもたらす。
本稿では,低コストなハードウェアに焦点をあて,単一のGPUを用いたコモディティゲームコンピュータで使用できるアプローチを提案する。
論文 参考訳(メタデータ) (2023-01-04T08:49:51Z) - Towards Live 3D Reconstruction from Wearable Video: An Evaluation of
V-SLAM, NeRF, and Videogrammetry Techniques [20.514826446476267]
MR(Mixed Reality)は、戦争の未来を変えることを約束する重要な技術である。
この技術を実現するためには,実動センサ観測に基づいて物理的環境の大規模3次元モデルを維持する必要がある。
実写映像のみを用いた大規模軍用地図作成のための3次元再構成アルゴリズムについて検討した。
論文 参考訳(メタデータ) (2022-11-21T19:57:51Z) - Attention based Occlusion Removal for Hybrid Telepresence Systems [5.006086647446482]
本稿では,HMDデクルージョンのための新しいアテンション対応エンコーダデコーダアーキテクチャを提案する。
我々は,最先端手法よりも質的,定量的な結果が優れていることを報告した。
また,既存のアニメーションと3次元顔再構成パイプラインを用いたハイブリッドビデオ会議への本手法の適用について述べる。
論文 参考訳(メタデータ) (2021-12-02T10:18:22Z) - Wireless 3D Point Cloud Delivery Using Deep Graph Neural Networks [38.315134707438446]
より優れた品質と通信オーバーヘッドの低減を実現するための,ソフトポイントクラウド配信のための新しいスキームを提案する。
提案手法では,グラフニューラルネットワーク(GNN)に基づくエンドツーエンドのディープラーニングフレームワークを導入し,高品質な点雲を再構築する。
提案手法により,低オーバーヘッドでクリーンな3次元点雲を再構成し,フェージングやノイズ効果を除去できることを示す。
論文 参考訳(メタデータ) (2020-06-17T13:10:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。