論文の概要: TSAMT: Time-Series-Analysis-based Motion Transfer among Multiple Cameras
- arxiv url: http://arxiv.org/abs/2109.14174v1
- Date: Wed, 29 Sep 2021 03:39:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-30 23:58:38.814070
- Title: TSAMT: Time-Series-Analysis-based Motion Transfer among Multiple Cameras
- Title(参考訳): TSAMT:複数カメラ間の時系列分析に基づく動き伝達
- Authors: Yaping Zhao, Guanghan Li, Zhongrui Wang
- Abstract要約: 複数のカメラ間の動き伝達に時系列解析を用いるアルゴリズムを提案する。
我々のアプローチは完全で明確な数学的定式化を持ち、効率的かつ解釈可能である。
- 参考スコア(独自算出の注目度): 1.933681537640272
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Along with advances in optical sensors is the common practice of building an
imaging system with heterogeneous cameras. While high-resolution (HR) videos
acquisition and analysis are benefited from hybrid sensors, the intrinsic
characteristics of multiple cameras lead to an interesting motion transfer
problem. Unfortunately, most of the existing methods provide no theoretical
analysis and require intensive training data. In this paper, we propose an
algorithm using time series analysis for motion transfer among multiple
cameras. Specifically, we firstly identify seasonality in motion data and then
build an addictive time series model to extract patterns that could be
transferred across cameras. Our approach has a complete and clear mathematical
formulation, thus being efficient and interpretable. Through quantitative
evaluations on real-world data, we demonstrate the effectiveness of our method.
Furthermore, our motion transfer algorithm could combine with and facilitate
downstream tasks, e.g., enhancing pose estimation on LR videos with inherent
patterns extracted from HR ones. Code is available at
https://github.com/IndigoPurple/TSAMT.
- Abstract(参考訳): 光センサーの進歩とともに、異種カメラを用いたイメージングシステムを構築するのが一般的である。
高分解能(hr)ビデオの取得と分析はハイブリッドセンサーの恩恵を受けているが、複数のカメラの固有の特性は興味深いモーション転送問題を引き起こす。
残念ながら、既存の手法のほとんどは理論的な分析を行わず、集中的なトレーニングデータを必要とする。
本稿では,複数のカメラ間の動き伝達に時系列解析を用いるアルゴリズムを提案する。
具体的には、まず動きデータの季節性を特定し、次に中毒性のある時系列モデルを構築して、カメラ間で転送可能なパターンを抽出する。
我々のアプローチは完全で明確な数学的定式化を持ち、効率的かつ解釈可能である。
実世界データを用いた定量的評価を行い,本手法の有効性を実証する。
さらに, 動き伝達アルゴリズムは, hr映像から抽出した固有パターンを用いたlr映像におけるポーズ推定の促進など, 下流タスクと組み合わせ, 促進できる。
コードはhttps://github.com/IndigoPurple/TSAMTで入手できる。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - Redundancy-Aware Camera Selection for Indoor Scene Neural Rendering [54.468355408388675]
カメラの空間的多様性と画像の意味的変動の両方を取り入れた類似度行列を構築した。
カメラ選択を最適化するために,多様性に基づくサンプリングアルゴリズムを適用した。
IndoorTrajという新しいデータセットも開発しています。仮想屋内環境で人間が捉えた、長くて複雑なカメラの動きが含まれています。
論文 参考訳(メタデータ) (2024-09-11T08:36:49Z) - CRiM-GS: Continuous Rigid Motion-Aware Gaussian Splatting from Motion Blur Images [12.603775893040972]
画像のぼやけた画像からリアルタイムレンダリング速度で正確な3Dシーンを再構成するために, 連続的な剛性運動対応ガウススプラッティング(CRiM-GS)を提案する。
我々は、剛体変換を利用して、物体の形状と大きさを保存し、適切な正則化でカメラの動きをモデル化する。
さらに,textitSE(3)フィールドに連続的な変形可能な3次元変換を導入し,剛体変換を実世界の問題に適用する。
論文 参考訳(メタデータ) (2024-07-04T13:37:04Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Homography Estimation in Complex Topological Scenes [6.023710971800605]
監視ビデオや画像は、交通分析から犯罪検出まで、幅広い用途に使用されている。
外部カメラキャリブレーションデータは、ほとんどの分析アプリケーションにとって重要である。
本稿では,任意のカメラ設定に関する事前知識を必要としない辞書ベースのアプローチを活用した自動カメラ校正プロセスを提案する。
論文 参考訳(メタデータ) (2023-08-02T11:31:43Z) - GPU-accelerated SIFT-aided source identification of stabilized videos [63.084540168532065]
我々は、安定化フレームインバージョンフレームワークにおけるグラフィクス処理ユニット(GPU)の並列化機能を利用する。
我々はSIFT機能を活用することを提案する。
カメラのモーメントを推定し 1%の確率で 時間セグメントを識別します
実験により,提案手法の有効性を確認し,必要な計算時間を短縮し,情報源の同定精度を向上させる。
論文 参考訳(メタデータ) (2022-07-29T07:01:31Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Motion-aware Dynamic Graph Neural Network for Video Compressive Sensing [14.67994875448175]
ビデオスナップショットイメージング(SCI)は、2D検出器を使用してシーケンシャルなビデオフレームをキャプチャし、それらを1つの測定値に圧縮する。
既存の再建手法の多くは、長距離空間および時間的依存関係を効率的に捉えることができない。
グラフニューラルネットワーク(GNN)に基づくフレキシブルでロバストなアプローチを提案し,距離に関わらず,空間と時間における画素間の非局所的相互作用を効率的にモデル化する。
論文 参考訳(メタデータ) (2022-03-01T12:13:46Z) - Self-Supervised Camera Self-Calibration from Video [34.35533943247917]
汎用カメラモデルの効率的なファミリーを用いてシーケンスごとのキャリブレーションパラメータを回帰する学習アルゴリズムを提案する。
提案手法は,サブピクセル再投射誤差による自己校正を行い,他の学習手法よりも優れる。
論文 参考訳(メタデータ) (2021-12-06T19:42:05Z) - TransCamP: Graph Transformer for 6-DoF Camera Pose Estimation [77.09542018140823]
本稿では、カメラ再配置問題に対処するため、グラフトランスフォーマーバックボーン、すなわちTransCamPを用いたニューラルネットワークアプローチを提案する。
TransCamPは、画像の特徴、カメラポーズ情報、フレーム間の相対的なカメラモーションを、エンコードされたグラフ属性に効果的に融合する。
論文 参考訳(メタデータ) (2021-05-28T19:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。