論文の概要: Trajectory Approximation of Video Based on Phase Correlation for Forward
Facing Camera
- arxiv url: http://arxiv.org/abs/2312.12680v1
- Date: Wed, 20 Dec 2023 00:44:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 17:12:03.349021
- Title: Trajectory Approximation of Video Based on Phase Correlation for Forward
Facing Camera
- Title(参考訳): 前方カメラの位相相関に基づく映像の軌跡近似
- Authors: Abdulkadhem A. Abdulkadhem
- Abstract要約: 本稿では,GPSを用いた環境下でカメラセンサから軌跡を抽出する手法を提案する。
このシステムは、車両に搭載された前方カメラの映像を入力として撮影し、出力はカメラの軌道を表すチェーンコードである。
特に,本システムは空間的特徴に依存した従来の手法より優れ,ノイズの多い環境においてより高速で頑健であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce an innovative approach for extracting
trajectories from a camera sensor in GPS-denied environments, leveraging visual
odometry. The system takes video footage captured by a forward-facing camera
mounted on a vehicle as input, with the output being a chain code representing
the camera's trajectory. The proposed methodology involves several key steps.
Firstly, we employ phase correlation between consecutive frames of the video to
extract essential information. Subsequently, we introduce a novel chain code
method termed "dynamic chain code," which is based on the x-shift values
derived from the phase correlation. The third step involves determining
directional changes (forward, left, right) by establishing thresholds and
extracting the corresponding chain code. This extracted code is then stored in
a buffer for further processing. Notably, our system outperforms traditional
methods reliant on spatial features, exhibiting greater speed and robustness in
noisy environments. Importantly, our approach operates without external camera
calibration information. Moreover, by incorporating visual odometry, our system
enhances its accuracy in estimating camera motion, providing a more
comprehensive understanding of trajectory dynamics. Finally, the system
culminates in the visualization of the normalized camera motion trajectory.
- Abstract(参考訳): 本稿では,カメラセンサから映像オドメトリーを活用し,gpsを固定した環境での軌跡抽出手法を提案する。
このシステムは、車両に搭載された前方カメラの映像を入力として撮影し、出力はカメラの軌道を表すチェーンコードである。
提案手法にはいくつかの重要なステップがある。
まず,ビデオの連続フレーム間の位相相関を用いて重要な情報を抽出する。
次に, 位相相関から得られるxシフト値に基づいて, 動的連鎖符号(dynamic chain code)と呼ばれる新しい連鎖符号法を提案する。
3番目のステップは、しきい値を確立し、対応する連鎖コードを抽出することで、方向の変化(前方、左、右)を決定することである。
この抽出されたコードはバッファに格納され、さらなる処理を行う。
特に,本システムは空間的特徴に依存した従来の手法より優れ,ノイズの多い環境においてより高速で堅牢であることを示す。
本手法は,外部カメラキャリブレーション情報なしで動作可能である。
さらに,視覚計測を取り入れることで,カメラの動きを推定する精度が向上し,軌跡力学のより包括的理解がもたらされる。
最後に、システムは、正規化されたカメラの動きの軌跡を可視化する。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - IMU-Aided Event-based Stereo Visual Odometry [7.280676899773076]
我々は、精度と効率の点で、以前のダイレクトパイプラインの textitEvent ベースの Stereo Visual Odometry を改善しました。
マッピング操作を高速化するために,イベントの局所的ダイナミクスに応じたエッジピクセルサンプリングの効率的な戦略を提案する。
この分野での今後の研究のためのオープンソースソフトウェアとして、パイプラインをリリースします。
論文 参考訳(メタデータ) (2024-05-07T07:19:25Z) - Co-attention Propagation Network for Zero-Shot Video Object Segmentation [91.71692262860323]
ゼロショットオブジェクトセグメンテーション(ZS-VOS)は、これらのオブジェクトを事前に知ることなく、ビデオシーケンス内のオブジェクトをセグメンテーションすることを目的としている。
既存のZS-VOSメソッドは、しばしば前景と背景を区別したり、複雑なシナリオで前景を追跡するのに苦労する。
本稿では,オブジェクトの追跡とセグメンテーションが可能なエンコーダデコーダに基づく階層的コアテンション伝搬ネットワーク(HCPN)を提案する。
論文 参考訳(メタデータ) (2023-04-08T04:45:48Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - TransCamP: Graph Transformer for 6-DoF Camera Pose Estimation [77.09542018140823]
本稿では、カメラ再配置問題に対処するため、グラフトランスフォーマーバックボーン、すなわちTransCamPを用いたニューラルネットワークアプローチを提案する。
TransCamPは、画像の特徴、カメラポーズ情報、フレーム間の相対的なカメラモーションを、エンコードされたグラフ属性に効果的に融合する。
論文 参考訳(メタデータ) (2021-05-28T19:08:43Z) - Movement-induced Priors for Deep Stereo [27.098315663348814]
移動誘導事前情報を用いたステレオ不均質推定手法を提案する。
本稿では,3つのガウスプロセスカーネルの階層構造について述べる。
提案手法が2つの最先端のディープステレオ手法とどのように組み合わせられるかを示す。
論文 参考訳(メタデータ) (2020-10-18T21:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。