論文の概要: Detecting Moving Objects Using a Novel Optical-Flow-Based
Range-Independent Invariant
- arxiv url: http://arxiv.org/abs/2310.09627v1
- Date: Sat, 14 Oct 2023 17:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 19:23:44.884927
- Title: Detecting Moving Objects Using a Novel Optical-Flow-Based
Range-Independent Invariant
- Title(参考訳): 光学フローベース距離非依存不変量を用いた移動物体の検出
- Authors: Daniel Raviv, Juan D. Yepes, Ayush Gowda
- Abstract要約: 本稿では,時間的瞬間や3次元の点の範囲,カメラの速度によらず,一貫した2次元不変画像を出力する光フロー変換を提案する。
新しい領域では、予め定義されたルックアップ画像の値から逸脱した3D点の投影を、静止した3D環境に対する移動として明確に識別することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on a novel approach for detecting moving objects during
camera motion. We present an optical-flow-based transformation that yields a
consistent 2D invariant image output regardless of time instants, range of
points in 3D, and the speed of the camera. In other words, this transformation
generates a lookup image that remains invariant despite the changing projection
of the 3D scene and camera motion. In the new domain, projections of 3D points
that deviate from the values of the predefined lookup image can be clearly
identified as moving relative to the stationary 3D environment, making them
seamlessly detectable. The method does not require prior knowledge of the
direction of motion or speed of the camera, nor does it necessitate 3D point
range information. It is well-suited for real-time parallel processing,
rendering it highly practical for implementation. We have validated the
effectiveness of the new domain through simulations and experiments,
demonstrating its robustness in scenarios involving rectilinear camera motion,
both in simulations and with real-world data. This approach introduces new ways
for moving objects detection during camera motion, and also lays the foundation
for future research in the context of moving object detection during
six-degrees-of-freedom camera motion.
- Abstract(参考訳): 本稿では,カメラ動作中の移動物体を検出する新しい手法について述べる。
本稿では,時間的瞬間や3次元の点の範囲,カメラの速度に関わらず,一貫した2次元不変画像出力が得られる光フロー変換を提案する。
言い換えると、この変換は3dシーンの投影やカメラの動きが変化しても不変のままのルックアップ画像を生成する。
新しい領域では、予め定義されたルックアップ画像の値から逸脱した3dポイントの投影は、静止3d環境に対する移動と明確に識別でき、シームレスに検出することができる。
この方法は、カメラの運動方向や速度について事前に知る必要はなく、3Dポイント範囲の情報も必要としない。
リアルタイム並列処理に適しており、実装に非常に実用的である。
シミュレーションと実験を通じて,新しい領域の有効性を検証し,シミュレーションと実世界データの両方において,直線的カメラ動作を含むシナリオにおける頑健性を示す。
このアプローチは、カメラモーション中の物体検出の新しい方法を導入し、また6自由度カメラモーション中の物体検出の文脈における将来の研究の基盤となる。
関連論文リスト
- DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - Invariant-based Mapping of Space During General Motion of an Observer [0.0]
本稿では、視覚的動きに基づく不変性について検討し、その結果、新たな瞬間的領域が生まれる。
幾何学的3次元不変量にリンクした可測光フローから導出される非線形関数を利用する。
本稿では3Dオブジェクトに対して回転するカメラのシミュレーションを行い、投影された画像のスナップショットを撮影する。
論文 参考訳(メタデータ) (2023-11-18T17:40:35Z) - Joint 3D Shape and Motion Estimation from Rolling Shutter Light-Field
Images [2.0277446818410994]
本研究では,ローリングシャッターセンサを備えた光界カメラで撮影した1枚の画像からシーンを3次元再構成する手法を提案する。
本手法は、光場に存在する3次元情報キューと、ローリングシャッター効果によって提供される動き情報を利用する。
本稿では,このセンサの撮像プロセスの汎用モデルと再投射誤差を最小化する2段階アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-02T15:08:18Z) - Time-based Mapping of Space Using Visual Motion Invariants [0.0]
本稿では、静止環境が不変である3次元点の表現をもたらす視覚的動きに基づく不変性に焦点を当てる。
得られた光フローに基づく不変量を「時間クリアランス」、よく知られた「時間対接触」と呼ぶ。
本稿では,3Dオブジェクトに対して移動しているカメラのシミュレーション,直線移動しているカメラによって撮影された投影された画像のスナップショット,時間とともに新しい領域で変化しているように見える物体について述べる。
論文 参考訳(メタデータ) (2023-10-14T17:55:49Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - Consistent Depth of Moving Objects in Video [52.72092264848864]
移動カメラで撮影した通常の映像から任意の移動物体を含む動的シーンの深さを推定する手法を提案する。
我々は、この目的を、深度予測CNNを入力ビデオ全体にわたって補助的なシーンフロー予測でタンデムで訓練する新しいテストタイムトレーニングフレームワークで定式化する。
我々は、さまざまな移動物体(ペット、人、車)とカメラの動きを含む様々な挑戦的なビデオに対して、正確かつ時間的に一貫性のある結果を示す。
論文 参考訳(メタデータ) (2021-08-02T20:53:18Z) - Shape from Blur: Recovering Textured 3D Shape and Motion of Fast Moving
Objects [115.71874459429381]
本研究では, 物体の3次元形状, テクスチャ, 動きを単一動画像から共同で再構成する新しい課題について述べる。
従来の手法では2次元画像領域でのみ遅延問題に対処するが、3次元領域における全ての物体特性の厳密なモデリングは任意の物体の動きの正確な記述を可能にする。
論文 参考訳(メタデータ) (2021-06-16T13:18:08Z) - Drosophila-Inspired 3D Moving Object Detection Based on Point Clouds [22.850519892606716]
我々はショウジョウバエの浅部視覚神経経路に基づく運動検出装置を開発した。
この検出器は物体の動きに敏感であり、背景雑音を十分に抑制することができる。
次に、改良された3Dオブジェクト検出ネットワークを用いて、各提案の点雲を推定し、3D境界ボックスとオブジェクトカテゴリを効率的に生成する。
論文 参考訳(メタデータ) (2020-05-06T10:04:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。