論文の概要: Multi-view data capture using edge-synchronised mobiles
- arxiv url: http://arxiv.org/abs/2005.03286v1
- Date: Thu, 7 May 2020 07:13:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 23:50:50.995883
- Title: Multi-view data capture using edge-synchronised mobiles
- Title(参考訳): エッジ同期モバイルを用いたマルチビューデータキャプチャ
- Authors: Matteo Bortolon, Paul Chippendale, Stefano Messelodi and Fabio Poiesi
- Abstract要約: 次世代のネットワークアーキテクチャ(例:5G)では、レイテンシが低く、エッジコンピューティングがサポートする帯域幅が大きくなる。
本稿では,フレームキャプチャの同期と取得にエッジリソースを活用する,新しいスケーラブルなデータキャプチャアーキテクチャを提案する。
我々は、レイテンシを分析することによってエッジコンピューティングユニットの利点を実証的に示し、代替で人気のある集中型ソリューションに対して3次元再構成出力の品質を示す。
- 参考スコア(独自算出の注目度): 0.17205106391379021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-view data capture permits free-viewpoint video (FVV) content creation.
To this end, several users must capture video streams, calibrated in both time
and pose, framing the same object/scene, from different viewpoints.
New-generation network architectures (e.g. 5G) promise lower latency and larger
bandwidth connections supported by powerful edge computing, properties that
seem ideal for reliable FVV capture. We have explored this possibility, aiming
to remove the need for bespoke synchronisation hardware when capturing a scene
from multiple viewpoints, making it possible through off-the-shelf mobiles. We
propose a novel and scalable data capture architecture that exploits edge
resources to synchronise and harvest frame captures. We have designed an edge
computing unit that supervises the relaying of timing triggers to and from
multiple mobiles, in addition to synchronising frame harvesting. We empirically
show the benefits of our edge computing unit by analysing latencies and show
the quality of 3D reconstruction outputs against an alternative and popular
centralised solution based on Unity3D.
- Abstract(参考訳): マルチビューデータキャプチャは、自由視点ビデオ(FVV)コンテンツ作成を可能にする。
この目的のために、複数のユーザがビデオストリームをキャプチャし、時間とポーズを調整し、異なる視点から同じオブジェクト/シーンをフレーミングしなければならない。
次世代ネットワークアーキテクチャ(例えば5G)は、信頼性の高いFVVキャプチャーに理想的な特性である強力なエッジコンピューティングによってサポートされている低レイテンシとより大きな帯域幅接続を約束する。
我々は、複数の視点からシーンをキャプチャする際に、個別の同期ハードウェアの必要性をなくすことを目的として、この可能性を探究した。
本稿では,フレームキャプチャの同期と取得にエッジリソースを活用する,新しいスケーラブルなデータキャプチャアーキテクチャを提案する。
我々は,複数の移動体へのタイミングトリガーの中継を監視できるエッジコンピューティングユニットを設計し,フレームの同期化を行った。
我々は、レイテンシを分析してエッジコンピューティングユニットの利点を実証的に示し、Unity3Dに基づく代替で人気のある集中型ソリューションに対して、3D再構成出力の品質を示す。
関連論文リスト
- Sync from the Sea: Retrieving Alignable Videos from Large-Scale Datasets [62.280729345770936]
AVR(Alignable Video Retrieval)の課題について紹介する。
クェリビデオが与えられた場合、我々は大量のクリップから良質な映像を識別し、時間的にクェリに同期させることができる。
大規模なKineetics700を含む3つのデータセットに関する実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-02T20:00:49Z) - Spatio-temporal Prompting Network for Robust Video Feature Extraction [74.54597668310707]
フレームテンポラリ(Frametemporal)は、ビデオ理解の分野における大きな課題の1つだ。
最近のアプローチでは、トランスフォーマーベースの統合モジュールを活用して、時間的品質情報を得る。
N-Temporal Prompting Network (NNSTP) という,クリーンで統一されたフレームワークを提案する。
ネットワークバックボーン内の入力特徴を調整することで,映像特徴の抽出を効率的に行うことができる。
論文 参考訳(メタデータ) (2024-02-04T17:52:04Z) - ViFiT: Reconstructing Vision Trajectories from IMU and Wi-Fi Fine Time
Measurements [6.632056181867312]
携帯電話データ(IMUおよびファインタイム計測)から視界境界ボックス軌道を再構成するトランスフォーマーベースモデルViFiTを提案する。
ViFiTは0.65のMRFRを達成し、LSTM-Decoderアーキテクチャにおけるクロスモーダル再構築の最先端のアプローチより優れている。
論文 参考訳(メタデータ) (2023-10-04T20:05:40Z) - You Can Ground Earlier than See: An Effective and Efficient Pipeline for
Temporal Sentence Grounding in Compressed Videos [56.676761067861236]
ビデオがトリミングされていない場合、時間的文のグラウンド化は、文問合せに従って目的のモーメントを意味的に見つけることを目的としている。
それまでの優れた作品は、かなり成功したが、それらはデコードされたフレームから抽出されたハイレベルな視覚的特徴にのみ焦点を当てている。
本稿では,圧縮された映像を直接視覚入力として利用する,圧縮された領域のTSGを提案する。
論文 参考訳(メタデータ) (2023-03-14T12:53:27Z) - Towards Smooth Video Composition [59.134911550142455]
ビデオ生成には、時間とともに動的コンテンツを伴う一貫した永続的なフレームが必要である。
本研究は, 生成的対向ネットワーク(GAN)を用いて, 任意の長さの映像を構成するための時間的関係を, 数フレームから無限までモデル化するものである。
単体画像生成のためのエイリアスフリー操作は、適切に学習された知識とともに、フレーム単位の品質を損なうことなく、スムーズなフレーム遷移をもたらすことを示す。
論文 参考訳(メタデータ) (2022-12-14T18:54:13Z) - Task-Oriented Communication for Edge Video Analytics [11.03999024164301]
本稿では,エッジビデオ分析のためのタスク指向通信フレームワークを提案する。
複数のデバイスが視覚センサデータを収集し、その情報機能をエッジサーバに送信して処理する。
提案手法は,映像データのタスク関連情報を効果的に符号化し,既存の手法よりも高いレート性能のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-11-25T12:09:12Z) - Graph Neural Network and Spatiotemporal Transformer Attention for 3D
Video Object Detection from Point Clouds [94.21415132135951]
複数のフレームにおける時間情報を利用して3次元物体を検出することを提案する。
我々は,一般的なアンカーベースおよびアンカーフリー検出器に基づくアルゴリズムを実装した。
論文 参考訳(メタデータ) (2022-07-26T05:16:28Z) - Distortion-Aware Network Pruning and Feature Reuse for Real-time Video
Segmentation [49.17930380106643]
本稿では,リアルタイム視覚タスクのスキップ接続によるアーキテクチャの高速化を目的とした新しいフレームワークを提案する。
具体的には、各フレームの到着時に、前のフレームから特徴を変換し、特定の空間的ビンで再利用する。
次に、現在のフレームの領域におけるバックボーンネットワークの部分計算を行い、現在のフレームと前のフレームの時間差をキャプチャする。
論文 参考訳(メタデータ) (2022-06-20T07:20:02Z) - Multi-view data capture for dynamic object reconstruction using handheld
augmented reality mobiles [0.0]
移動移動型携帯端末からほぼ同期のフレームストリームをキャプチャするシステムを提案する。
各モバイルは、そのポーズを推定するために同時にローカライズとマッピングを実行し、無線通信チャネルを使用して同期トリガーを送受信する。
3次元骨格とボリュームリコンストラクションに利用することで,本システムの有効性を示す。
論文 参考訳(メタデータ) (2021-03-14T10:26:50Z) - ApproxDet: Content and Contention-Aware Approximate Object Detection for
Mobiles [19.41234144545467]
本稿では,モバイル機器用適応型ビデオオブジェクト検出フレームワークであるApproxDetを紹介する。
大規模なベンチマークビデオデータセット上でApproxDetを評価し,AdaScaleやYOLOv3と比較した。
ApproxDetは、幅広いコンテントやコンテンツの特徴に適応し、すべてのベースラインを誇張することができる。
論文 参考訳(メタデータ) (2020-10-21T04:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。