論文の概要: Synchronized Smartphone Video Recording System of Depth and RGB Image
Frames with Sub-millisecond Precision
- arxiv url: http://arxiv.org/abs/2111.03552v1
- Date: Fri, 5 Nov 2021 15:16:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-08 16:04:43.266778
- Title: Synchronized Smartphone Video Recording System of Depth and RGB Image
Frames with Sub-millisecond Precision
- Title(参考訳): 奥行き及びrgb画像フレームのサブミリ秒精度同期型スマートフォンビデオ記録システム
- Authors: Marsel Faizullin, Anastasiia Kornilova, Azat Akhmetyanov, Konstantin
Pakulev, Andrey Sadkov and Gonzalo Ferrer
- Abstract要約: 本稿では,同期(同期)精度の高い記録システムを提案する。
スマートフォン、ディープカメラ、IMUなどの異種センサーで構成されている。
- 参考スコア(独自算出の注目度): 2.1286051580524523
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper, we propose a recording system with high time synchronization
(sync) precision which consists of heterogeneous sensors such as smartphone,
depth camera, IMU, etc. Due to the general interest and mass adoption of
smartphones, we include at least one of such devices into our system. This
heterogeneous system requires a hybrid synchronization for the two different
time authorities: smartphone and MCU, where we combine a hardware wired-based
trigger sync with software sync. We evaluate our sync results on a custom and
novel system mixing active infra-red depth with RGB camera. Our system achieves
sub-millisecond precision of time sync. Moreover, our system exposes every
RGB-depth image pair at the same time with this precision. We showcase a
configuration in particular but the general principles behind our system could
be replicated by other projects.
- Abstract(参考訳): 本稿では,スマートフォン,深度カメラ,IMUなどの異種センサからなるリアルタイム同期(同期)精度の記録システムを提案する。
スマートフォンの一般的な関心と普及により、当社のシステムに少なくとも1つのデバイスが組み込まれています。
この異質なシステムは、スマートフォンとMCUという2つの異なる時間当局のためにハイブリッド同期を必要とします。
rgbカメラとアクティブな赤外線深度を混合したカスタムシステム上での同期結果の評価を行った。
我々のシステムは、時間同期のサブミリ秒精度を実現する。
さらに,この精度で全RGB深度画像ペアを同時に公開する。
特に構成を示すが、システムの背後にある一般的な原則は他のプロジェクトによって複製される可能性がある。
関連論文リスト
- Event-based Asynchronous HDR Imaging by Temporal Incident Light Modulation [54.64335350932855]
我々は,HDRイメージングの課題に関する重要な知見に基づいて,Pixel-Asynchronous HDRイメージングシステムを提案する。
提案システムでは,DVS(Dynamic Vision Sensors)とLCDパネルを統合する。
LCDパネルは、その透過性を変化させてDVSの照射インシデントを変調し、ピクセル非依存のイベントストリームをトリガーする。
論文 参考訳(メタデータ) (2024-03-14T13:45:09Z) - An Asynchronous Linear Filter Architecture for Hybrid Event-Frame Cameras [9.69495347826584]
本稿では,HDRビデオ再構成と空間畳み込みのための非同期線形フィルタアーキテクチャを提案する。
提案したAKFパイプラインは、絶対強度誤差(69.4%削減)と画像類似度指数(平均35.5%改善)の両方において、他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-03T12:37:59Z) - Deep learning-based stereo camera multi-video synchronization [5.305803516459996]
ソフトウェアベースの同期方式では、システム全体のコスト、重量、サイズを削減できる。
本研究は、ソフトウェアベースのビデオ同期システムを実現するための道筋をたどるものである。
論文 参考訳(メタデータ) (2023-03-22T21:14:36Z) - Sparse in Space and Time: Audio-visual Synchronisation with Trainable
Selectors [103.21152156339484]
本研究の目的は,一般映像の「野生」音声・視覚同期である。
我々は4つのコントリビューションを行う: (i) スパース同期信号に必要な長時間の時間的シーケンスを処理するために、'セレクタ'を利用するマルチモーダルトランスモデルを設計する。
音声やビデオに使用される圧縮コーデックから生じるアーティファクトを識別し、トレーニングにおいてオーディオ視覚モデルを用いて、同期タスクを人工的に解くことができる。
論文 参考訳(メタデータ) (2022-10-13T14:25:37Z) - Rolling Shutter Inversion: Bring Rolling Shutter Images to High
Framerate Global Shutter Video [111.08121952640766]
本稿では,RS時相超解問題に対する新しいディープラーニングに基づく解法を提案する。
RSイメージングプロセスの多視点幾何関係を利用して,高フレームレートGS生成を実現する。
提案手法は,高精細で高品質なGS画像系列を生成でき,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2022-10-06T16:47:12Z) - SmartPortraits: Depth Powered Handheld Smartphone Dataset of Human
Portraits for State Estimation, Reconstruction and Synthesis [1.981491298222699]
実物および制御不能な条件下で記録された人間の肖像画の1000件のビデオシーケンスのデータセットを提示する。
収集されたデータセットには、異なるポーズとロケーションでキャプチャされた200人が含まれています。
主な目的は、スマートフォンから得られた生測値と下流アプリケーションの間のギャップを埋めることである。
論文 参考訳(メタデータ) (2022-04-21T15:47:38Z) - Sub-millisecond Video Synchronization of Multiple Android Smartphones [2.283665431721732]
本稿では,安価でセットアップが容易なマルチビューカメラシステムを構築する際の課題に対処する。
この問題の解決策として,複数スマートフォン上での同期ビデオ録画をミリ秒未満の精度で公開するAndroidアプリケーションを提案する。
論文 参考訳(メタデータ) (2021-07-02T11:56:33Z) - Combining Events and Frames using Recurrent Asynchronous Multimodal
Networks for Monocular Depth Prediction [51.072733683919246]
複数のセンサからの非同期および不規則なデータを処理するために、リカレント非同期マルチモーダル(RAM)ネットワークを導入する。
従来のRNNにインスパイアされたRAMネットワークは、非同期に更新され、予測を生成するためにいつでもクエリできる隠れ状態を維持している。
平均深度絶対誤差において,最先端手法を最大30%改善することを示す。
論文 参考訳(メタデータ) (2021-02-18T13:24:35Z) - CoMo: A novel co-moving 3D camera system [0.0]
CoMoは2台の同期高速カメラと回転ステージを組み合わせた共同移動カメラシステムである。
本稿では,システム"ホーム"構成において,カメラの位置とヨー,ピッチ,ロールの3つの角度を測定する外部パラメータのキャリブレーションについて述べる。
本研究では,3次元実験において,再現および測定した3次元距離を1%の相対誤差で比較することにより,システムのロバスト性と精度を評価する。
論文 参考訳(メタデータ) (2021-01-26T13:29:13Z) - Single-Frame based Deep View Synchronization for Unsynchronized
Multi-Camera Surveillance [56.964614522968226]
マルチカメラ監視はシーンの理解とモデリングにおいて活発な研究課題となっている。
通常、これらのマルチカメラベースのタスクのモデルを設計する際に、カメラはすべて時間的に同期していると仮定される。
我々のビュー同期モデルは、非同期設定下で異なるDNNベースのマルチカメラビジョンタスクに適用される。
論文 参考訳(メタデータ) (2020-07-08T04:39:38Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。