論文の概要: FVV Live: Real-Time, Low-Cost, Free Viewpoint Video
- arxiv url: http://arxiv.org/abs/2006.16893v1
- Date: Tue, 30 Jun 2020 15:21:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 06:04:22.739991
- Title: FVV Live: Real-Time, Low-Cost, Free Viewpoint Video
- Title(参考訳): FVV Live: リアルタイム、低コスト、無料ビューポイントビデオ
- Authors: Daniel Berj\'on, Pablo Carballeira, Juli\'an Cabrera, Carlos Carmona,
Daniel Corregidor, C\'esar D\'iaz, Francisco Mor\'an, Narciso Garc\'ia
- Abstract要約: FVV Liveは、新しいリアルタイム、低レイテンシ、エンドツーエンドの無料視点システムである。
システムは低コストでリアルタイムな運用のために特別に設計されている。
- 参考スコア(独自算出の注目度): 1.2752808844888017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: FVV Live is a novel real-time, low-latency, end-to-end free viewpoint system
including capture, transmission, synthesis on an edge server and visualization
and control on a mobile terminal. The system has been specially designed for
low-cost and real-time operation, only using off-the-shelf components.
- Abstract(参考訳): fvv liveは、エッジサーバのキャプチャ、送信、合成、モバイル端末の可視化と制御を含む、新しいリアルタイム、低レイテンシ、エンドツーエンドのフリービューシステムである。
このシステムは、市販コンポーネントのみを使用して、低コストかつリアルタイムな運用のために特別に設計された。
関連論文リスト
- DADFNet: Dual Attention and Dual Frequency-Guided Dehazing Network for
Video-Empowered Intelligent Transportation [79.18450119567315]
逆の気象条件は、ビデオベースの交通監視に深刻な課題をもたらす。
本稿では,リアルタイム視認性向上のための2つの注意と2つの周波数誘導型脱ハージングネットワーク(DADFNet)を提案する。
論文 参考訳(メタデータ) (2023-04-19T11:55:30Z) - Neural Residual Radiance Fields for Streamably Free-Viewpoint Videos [69.22032459870242]
本稿では,Residual Radiance Field(ReRF)という新しい手法を提案する。
このような戦略は品質を犠牲にすることなく大きな動きを扱えることを示す。
ReRFに基づいて,3桁の圧縮率を達成する特別なFVVを設計し,ダイナミックシーンの長期FVVのオンラインストリーミングをサポートするReRFプレーヤを提供する。
論文 参考訳(メタデータ) (2023-04-10T08:36:00Z) - Streaming Video Model [90.24390609039335]
本稿では,映像理解タスクをストリーミング・ビジョン・トランスフォーマー(Streaming Vision Transformer, S-ViT)と呼ばれる1つのストリーミング・ビデオ・アーキテクチャに統合することを提案する。
S-ViTはまず、フレームベースのビデオタスクを提供するメモリ対応時空間エンコーダでフレームレベルの機能を生成する。
S-ViTの効率と有効性は、シークエンスに基づく行動認識における最先端の精度によって実証される。
論文 参考訳(メタデータ) (2023-03-30T08:51:49Z) - Propagate And Calibrate: Real-time Passive Non-line-of-sight Tracking [84.38335117043907]
本研究では,リレー壁のみを観察することで,見えない部屋を歩いている人を追跡する純粋受動的手法を提案する。
本研究では,リレー壁の映像の非知覚的変化を発掘するため,時間的局所的な動きの伝達に欠かせない特徴として差分フレームを導入する。
提案手法を評価するため,最初の動的受動NLOS追跡データセットであるNLOS-Trackを構築し,公開する。
論文 参考訳(メタデータ) (2023-03-21T12:18:57Z) - You Can Ground Earlier than See: An Effective and Efficient Pipeline for
Temporal Sentence Grounding in Compressed Videos [56.676761067861236]
ビデオがトリミングされていない場合、時間的文のグラウンド化は、文問合せに従って目的のモーメントを意味的に見つけることを目的としている。
それまでの優れた作品は、かなり成功したが、それらはデコードされたフレームから抽出されたハイレベルな視覚的特徴にのみ焦点を当てている。
本稿では,圧縮された映像を直接視覚入力として利用する,圧縮された領域のTSGを提案する。
論文 参考訳(メタデータ) (2023-03-14T12:53:27Z) - WOC: A Handy Webcam-based 3D Online Chatroom [62.43306257598143]
WOCはウェブカメラベースのマルチパーソンインタラクションのための3D仮想チャットルームである。
ユーザの3Dモーションをキャプチャして、個々の3D仮想アバターをリアルタイムで駆動する。
論文 参考訳(メタデータ) (2022-09-02T01:34:14Z) - A Multi-user Oriented Live Free-viewpoint Video Streaming System Based
On View Interpolation [15.575219833681635]
リアルタイムに高密度な仮想ビューを合成するためのCNNベースのビューアルゴリズムを提案する。
また,マルチユーザ指向のストリーミング戦略を備えた,エンドツーエンドのライブビューポイントシステムを構築した。
論文 参考訳(メタデータ) (2021-12-20T15:17:57Z) - iButter: Neural Interactive Bullet Time Generator for Human
Free-viewpoint Rendering [36.975827955498914]
本稿では,高密度RGBストリームからの光リアルな人間の自由視点レンダリングのためのニューラル対話型弾頭時間生成器(iButter)を提案する。
プレビュー期間中に,NeRFレンダリングをリアルタイムかつダイナミックな設定に拡張することで,対話型弾道設計手法を提案する。
改良中,20分以内の効率的な軌跡認識方式を導入し,人間の活動の写実的弾頭時間視聴体験を実現する。
論文 参考訳(メタデータ) (2021-08-12T07:52:03Z) - FVV Live: A real-time free-viewpoint video system with consumer
electronics hardware [1.1403672224109256]
FVV Liveは、低コストでリアルタイムな操作のために設計された、新しいエンドツーエンドの無料視点ビデオシステムである。
このシステムは、コンシューマグレードのカメラとハードウェアを使って高品質のフリー視点ビデオを提供するように設計されている。
論文 参考訳(メタデータ) (2020-07-01T15:40:28Z) - Neuromorphic Eye-in-Hand Visual Servoing [0.9949801888214528]
イベントカメラは、低レイテンシと広いダイナミックレンジで人間のような視覚機能を提供する。
本稿では,イベントカメラとスイッチング制御戦略を用いて,探索,到達,把握を行う視覚サーボ手法を提案する。
実験は、異なる形状の物体を追跡して把握する手法の有効性を、再学習を必要とせずに証明する。
論文 参考訳(メタデータ) (2020-04-15T23:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。