論文の概要: Time-based Mapping of Space Using Visual Motion Invariants
- arxiv url: http://arxiv.org/abs/2310.09632v1
- Date: Sat, 14 Oct 2023 17:55:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 19:09:43.685991
- Title: Time-based Mapping of Space Using Visual Motion Invariants
- Title(参考訳): 視覚運動不変量を用いた時空間マッピング
- Authors: Juan D. Yepes, Daniel Raviv
- Abstract要約: 本稿では、静止環境が不変である3次元点の表現をもたらす視覚的動きに基づく不変性に焦点を当てる。
得られた光フローに基づく不変量を「時間クリアランス」、よく知られた「時間対接触」と呼ぶ。
本稿では,3Dオブジェクトに対して移動しているカメラのシミュレーション,直線移動しているカメラによって撮影された投影された画像のスナップショット,時間とともに新しい領域で変化しているように見える物体について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on visual motion-based invariants that result in a
representation of 3D points in which the stationary environment remains
invariant, ensuring shape constancy. This is achieved even as the images
undergo constant change due to camera motion. Nonlinear functions of measurable
optical flow, which are related to geometric 3D invariants, are utilized to
create a novel representation. We refer to the resulting optical flow-based
invariants as 'Time-Clearance' and the well-known 'Time-to-Contact' (TTC).
Since these invariants remain constant over time, it becomes straightforward to
detect moving points that do not adhere to the expected constancy. We present
simulations of a camera moving relative to a 3D object, snapshots of its
projected images captured by a rectilinearly moving camera, and the object as
it appears unchanged in the new domain over time. In addition, Unity-based
simulations demonstrate color-coded transformations of a projected 3D scene,
illustrating how moving objects can be readily identified. This representation
is straightforward, relying on simple optical flow functions. It requires only
one camera, and there is no need to determine the magnitude of the camera's
velocity vector. Furthermore, the representation is pixel-based, making it
suitable for parallel processing.
- Abstract(参考訳): 本稿では,静止環境が不変のままである3次元点を表現し,形状定数を確保する視覚運動に基づく不変量に着目した。
これは、カメラの動きによって画像が変化しても達成される。
幾何学的3次元不変量に関連する可測光流の非線形関数を用いて新しい表現を生成する。
得られた光フローに基づく不変量は、"Time-Clearance"とよく知られた"Time-to-Contact"(TTC)と呼ぶ。
これらの不変量は時間とともに一定となるため、期待される定数に従わない移動点を検出することは容易になる。
3dオブジェクトに対して相対的に移動するカメラのシミュレーション、直線的に動くカメラで撮影された投影画像のスナップショット、そして新しい領域で時間とともに変化するオブジェクトのシミュレーションを行う。
さらに、Unityをベースとしたシミュレーションでは、投影された3Dシーンのカラーコード変換が示され、移動物体の識別が容易にできることを示す。
この表現は単純で、単純な光フロー関数に依存する。
カメラは1つしか必要とせず、カメラの速度ベクトルの大きさを決定する必要はない。
さらに、この表現はピクセルベースであり、並列処理に適している。
関連論文リスト
- CRiM-GS: Continuous Rigid Motion-Aware Gaussian Splatting from Motion Blur Images [12.603775893040972]
画像のぼやけた画像からリアルタイムレンダリング速度で正確な3Dシーンを再構成するために, 連続的な剛性運動対応ガウススプラッティング(CRiM-GS)を提案する。
我々は、剛体変換を利用して、物体の形状と大きさを保存し、適切な正則化でカメラの動きをモデル化する。
さらに,textitSE(3)フィールドに連続的な変形可能な3次元変換を導入し,剛体変換を実世界の問題に適用する。
論文 参考訳(メタデータ) (2024-07-04T13:37:04Z) - Invariant-based Mapping of Space During General Motion of an Observer [0.0]
本稿では、視覚的動きに基づく不変性について検討し、その結果、新たな瞬間的領域が生まれる。
幾何学的3次元不変量にリンクした可測光フローから導出される非線形関数を利用する。
本稿では3Dオブジェクトに対して回転するカメラのシミュレーションを行い、投影された画像のスナップショットを撮影する。
論文 参考訳(メタデータ) (2023-11-18T17:40:35Z) - Detecting Moving Objects Using a Novel Optical-Flow-Based
Range-Independent Invariant [0.0]
本稿では,時間的瞬間や3次元の点の範囲,カメラの速度によらず,一貫した2次元不変画像を出力する光フロー変換を提案する。
新しい領域では、予め定義されたルックアップ画像の値から逸脱した3D点の投影を、静止した3D環境に対する移動として明確に識別することができる。
論文 参考訳(メタデータ) (2023-10-14T17:42:19Z) - SceNeRFlow: Time-Consistent Reconstruction of General Dynamic Scenes [75.9110646062442]
我々はSceNeRFlowを提案し、時間的一貫性のある方法で一般的な非剛体シーンを再構築する。
提案手法は,カメラパラメータを入力として,静止カメラからのマルチビューRGBビデオと背景画像を取得する。
実験により,小規模動作のみを扱う先行作業とは異なり,スタジオスケール動作の再構築が可能であることが示された。
論文 参考訳(メタデータ) (2023-08-16T09:50:35Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - Shape from Blur: Recovering Textured 3D Shape and Motion of Fast Moving
Objects [115.71874459429381]
本研究では, 物体の3次元形状, テクスチャ, 動きを単一動画像から共同で再構成する新しい課題について述べる。
従来の手法では2次元画像領域でのみ遅延問題に対処するが、3次元領域における全ての物体特性の厳密なモデリングは任意の物体の動きの正確な記述を可能にする。
論文 参考訳(メタデータ) (2021-06-16T13:18:08Z) - Geometric Moment Invariants to Motion Blur [4.8915390363596005]
動きのぼけ不変量の導出による動きのぼかしの干渉の除去に着目する。
運動ボケの幾何学的モーメントと数学的モデルに基づいて,ボケ画像と原像の幾何学的モーメントが線形に関連していることを証明した。
驚くべきことに、幾何モーメント不変量は空間変換だけでなく動きのぼやきにも不変である。
論文 参考訳(メタデータ) (2021-01-21T14:50:34Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。