論文の概要: Distributed Radiance Fields for Edge Video Compression and Metaverse
Integration in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2402.14642v1
- Date: Thu, 22 Feb 2024 15:39:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 14:43:01.933883
- Title: Distributed Radiance Fields for Edge Video Compression and Metaverse
Integration in Autonomous Driving
- Title(参考訳): 自律運転におけるエッジビデオ圧縮とメタバース統合のための分散放射場
- Authors: Eugen \v{S}lapak, Mat\'u\v{s} Dopiriak, Mohammad Abdullah Al Faruque,
Juraj Gazda, Marco Levorato
- Abstract要約: メタバースは 物理的な要素と デジタル要素を組み合わせた 仮想空間だ 没入型で接続された デジタル世界を創りだす
デジタルツイン(DT)は仮想プロトタイピング、予測などを提供する。
DTは、現実世界の幾何学、外観、ダイナミクスをキャプチャする3Dシーン再構成手法で作成することができる。
- 参考スコア(独自算出の注目度): 13.536641570721798
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The metaverse is a virtual space that combines physical and digital elements,
creating immersive and connected digital worlds. For autonomous mobility, it
enables new possibilities with edge computing and digital twins (DTs) that
offer virtual prototyping, prediction, and more. DTs can be created with 3D
scene reconstruction methods that capture the real world's geometry,
appearance, and dynamics. However, sending data for real-time DT updates in the
metaverse, such as camera images and videos from connected autonomous vehicles
(CAVs) to edge servers, can increase network congestion, costs, and latency,
affecting metaverse services. Herein, a new method is proposed based on
distributed radiance fields (RFs), multi-access edge computing (MEC) network
for video compression and metaverse DT updates. RF-based encoder and decoder
are used to create and restore representations of camera images. The method is
evaluated on a dataset of camera images from the CARLA simulator. Data savings
of up to 80% were achieved for H.264 I-frame - P-frame pairs by using RFs
instead of I-frames, while maintaining high peak signal-to-noise ratio (PSNR)
and structural similarity index measure (SSIM) qualitative metrics for the
reconstructed images. Possible uses and challenges for the metaverse and
autonomous mobility are also discussed.
- Abstract(参考訳): metaverseは、物理的な要素とデジタル要素を組み合わせた仮想空間であり、没入的かつ接続されたデジタル世界を作り出す。
自律型モビリティでは、エッジコンピューティングと仮想プロトタイピング、予測などを提供するデジタルツイン(DT)で、新たな可能性を実現する。
DTは、現実世界の幾何学、外観、ダイナミクスを捉える3Dシーン再構成手法で作成することができる。
しかし、カメラ画像やコネクテッド・オートモービル(CAV)からエッジサーバへのビデオなどのメタバースでのリアルタイムDT更新のためのデータ送信は、ネットワークの混雑、コスト、レイテンシを増大させ、メタバースサービスに影響を与える可能性がある。
本稿では,ビデオ圧縮とメタバースDT更新のための分散放射場(RF),マルチアクセスエッジコンピューティング(MEC)ネットワークに基づく新しい手法を提案する。
rfベースのエンコーダとデコーダは、カメラ画像の表現の作成と復元に使用される。
この方法はcarlaシミュレータによるカメラ画像のデータセット上で評価される。
h.264で最大80%の節約を達成した
Iフレーム-Pフレームペアは、Iフレームの代わりにRFを用いて、高ピーク信号対雑音比(PSNR)と構造類似度指標(SSIM)の定性的指標を維持しながら構成する。
メタバースと自律移動の可能な用途と課題についても論じる。
関連論文リスト
- Federated Multi-View Synthesizing for Metaverse [52.59476179535153]
メタバースは没入型エンターテイメント、教育、ビジネスアプリケーションを提供すると期待されている。
無線ネットワーク上のバーチャルリアリティ(VR)伝送は、データと計算集約である。
我々は,メタバースにおける無線コンテンツ配信のために,効率的な合成,記憶,通信資源を提供する,新しい多視点合成フレームワークを開発した。
論文 参考訳(メタデータ) (2023-12-18T13:51:56Z) - ViFiT: Reconstructing Vision Trajectories from IMU and Wi-Fi Fine Time
Measurements [6.632056181867312]
携帯電話データ(IMUおよびファインタイム計測)から視界境界ボックス軌道を再構成するトランスフォーマーベースモデルViFiTを提案する。
ViFiTは0.65のMRFRを達成し、LSTM-Decoderアーキテクチャにおけるクロスモーダル再構築の最先端のアプローチより優れている。
論文 参考訳(メタデータ) (2023-10-04T20:05:40Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - Alignment-free HDR Deghosting with Semantics Consistent Transformer [76.91669741684173]
高ダイナミックレンジイメージングは、複数の低ダイナミックレンジ入力から情報を取得し、リアルな出力を生成することを目的としている。
既存の手法では、前景やカメラの動きによって引き起こされる入力フレーム間の空間的ずれに焦点を当てることが多い。
本研究では,SCTNet(Semantics Consistent Transformer)を用いたアライメントフリーネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:03:23Z) - Spatiotemporal Attention-based Semantic Compression for Real-time Video
Recognition [117.98023585449808]
本稿では,各フレームにおけるフレームと画素の重要性を評価するために,時間的注意に基づくオートエンコーダ(STAE)アーキテクチャを提案する。
我々は3D-2D CNNを組み合わせた軽量デコーダを開発し、欠落した情報を再構成する。
実験の結果,VT_STAEはビデオデータセットH51を,5%の精度で104倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2023-05-22T07:47:27Z) - Self-Supervised Scene Dynamic Recovery from Rolling Shutter Images and
Events [63.984927609545856]
任意の時間間隔間での画素単位のダイナミックさを予測するために,イベントベース/イントラフレーム補償器(E-IC)を提案する。
提案手法は,実世界のシナリオにおけるイベントベースRS2GSインバージョンにおいて,顕著な性能を示す。
論文 参考訳(メタデータ) (2023-04-14T05:30:02Z) - VoloGAN: Adversarial Domain Adaptation for Synthetic Depth Data [0.0]
本稿では,高品質な3Dモデルの合成RGB-D画像を,消費者の深度センサで生成可能なRGB-D画像に変換する対向領域適応ネットワークであるVoloGANを提案する。
本システムは,実世界の捕捉条件を再現した単一視点3次元再構成アルゴリズムにおいて,高精度なトレーニングデータを生成するのに特に有用である。
論文 参考訳(メタデータ) (2022-07-19T11:30:41Z) - Simple and Effective Synthesis of Indoor 3D Scenes [78.95697556834536]
1枚以上の画像から3D屋内シーンを没入する問題について検討する。
我々の狙いは、新しい視点から高解像度の画像とビデオを作成することである。
本稿では,不完全点雲の再投影から高解像度のRGB-D画像へ直接マップするイメージ・ツー・イメージのGANを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:54:46Z) - Motion-aware Dynamic Graph Neural Network for Video Compressive Sensing [14.67994875448175]
ビデオスナップショットイメージング(SCI)は、2D検出器を使用してシーケンシャルなビデオフレームをキャプチャし、それらを1つの測定値に圧縮する。
既存の再建手法の多くは、長距離空間および時間的依存関係を効率的に捉えることができない。
グラフニューラルネットワーク(GNN)に基づくフレキシブルでロバストなアプローチを提案し,距離に関わらず,空間と時間における画素間の非局所的相互作用を効率的にモデル化する。
論文 参考訳(メタデータ) (2022-03-01T12:13:46Z) - Deep Learning for Robust Motion Segmentation with Non-Static Cameras [0.0]
本論文では,MOSNET と呼ばれる非静的なカメラで撮影するモーションセグメンテーションのための新たな DCNN ベースのアプローチを提案する。
他のアプローチは空間的または時間的文脈に焦点を当てているが、提案手法は3d畳み込みをビデオフレームの時間的特徴を分解する重要な技術として用いる。
このネットワークは、シーン中に画像コンテンツが大幅に変化する静電カメラで撮影されたシーンでうまく機能します。
論文 参考訳(メタデータ) (2021-02-22T11:58:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。