論文の概要: Invariant-based Mapping of Space During General Motion of an Observer
- arxiv url: http://arxiv.org/abs/2311.11130v1
- Date: Sat, 18 Nov 2023 17:40:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 10:18:06.289038
- Title: Invariant-based Mapping of Space During General Motion of an Observer
- Title(参考訳): 観測者の一般運動中の空間の不変量に基づく写像
- Authors: Juan D. Yepes, Daniel Raviv
- Abstract要約: 本稿では、視覚的動きに基づく不変性について検討し、その結果、新たな瞬間的領域が生まれる。
幾何学的3次元不変量にリンクした可測光フローから導出される非線形関数を利用する。
本稿では3Dオブジェクトに対して回転するカメラのシミュレーションを行い、投影された画像のスナップショットを撮影する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores visual motion-based invariants, resulting in a new
instantaneous domain where: a) the stationary environment is perceived as
unchanged, even as the 2D images undergo continuous changes due to camera
motion, b) obstacles can be detected and potentially avoided in specific
subspaces, and c) moving objects can potentially be detected. To achieve this,
we make use of nonlinear functions derived from measurable optical flow, which
are linked to geometric 3D invariants.
We present simulations involving a camera that translates and rotates
relative to a 3D object, capturing snapshots of the camera projected images. We
show that the object appears unchanged in the new domain over time. We process
real data from the KITTI dataset and demonstrate how to segment space to
identify free navigational regions and detect obstacles within a predetermined
subspace. Additionally, we present preliminary results, based on the KITTI
dataset, on the identification and segmentation of moving objects, as well as
the visualization of shape constancy.
This representation is straightforward, relying on functions for the simple
de-rotation of optical flow. This representation only requires a single camera,
it is pixel-based, making it suitable for parallel processing, and it
eliminates the necessity for 3D reconstruction techniques.
- Abstract(参考訳): 本稿では,視覚運動に基づく不変量について検討する。
a)2D画像がカメラの動きによって連続的に変化しても、静止環境は変化と認識される。
ロ 特定の部分空間において障害を検知し、回避することができること。
c) 移動物体を検出することができる。
これを実現するために、幾何学的3次元不変量にリンクした可測光フローから導出される非線形関数を利用する。
本稿では3Dオブジェクトに対して回転するカメラのシミュレーションを行い、投影された画像のスナップショットを撮影する。
オブジェクトが時間とともに新しいドメインに変化しないことを示す。
KITTIデータセットから実際のデータを処理し、空間をセグメント化して自由な航法領域を特定し、所定の部分空間内の障害物を検出する方法を示す。
さらに、KITTIデータセットに基づいて、移動物体の識別とセグメンテーション、形状の連続性の可視化に関する予備的な結果を示す。
この表現は単純で、光学フローの簡単な逆回転の関数に依存する。
この表現は1台のカメラのみを必要とし、ピクセルベースであり、並列処理に適しており、3D再構成技術の必要性を排除している。
関連論文リスト
- Time-based Mapping of Space Using Visual Motion Invariants [0.0]
本稿では、静止環境が不変である3次元点の表現をもたらす視覚的動きに基づく不変性に焦点を当てる。
得られた光フローに基づく不変量を「時間クリアランス」、よく知られた「時間対接触」と呼ぶ。
本稿では,3Dオブジェクトに対して移動しているカメラのシミュレーション,直線移動しているカメラによって撮影された投影された画像のスナップショット,時間とともに新しい領域で変化しているように見える物体について述べる。
論文 参考訳(メタデータ) (2023-10-14T17:55:49Z) - Detecting Moving Objects Using a Novel Optical-Flow-Based
Range-Independent Invariant [0.0]
本稿では,時間的瞬間や3次元の点の範囲,カメラの速度によらず,一貫した2次元不変画像を出力する光フロー変換を提案する。
新しい領域では、予め定義されたルックアップ画像の値から逸脱した3D点の投影を、静止した3D環境に対する移動として明確に識別することができる。
論文 参考訳(メタデータ) (2023-10-14T17:42:19Z) - Parametric Depth Based Feature Representation Learning for Object
Detection and Segmentation in Bird's Eye View [44.78243406441798]
本稿では,このような特徴変換をモデル化するために,深度などの幾何学的情報を活用することに焦点を当てる。
まず2次元画像の特徴を,各ビューの画素ごとのパラメトリック深度分布を予測して,エゴ車に定義された3次元空間に引き上げる。
次に、深度からBEVフレームへの3次元空間占有度に基づいて、3次元特徴体積を集約する。
論文 参考訳(メタデータ) (2023-07-09T06:07:22Z) - Explicit3D: Graph Network with Spatial Inference for Single Image 3D
Object Detection [35.85544715234846]
本稿では,オブジェクトの幾何学的特徴と意味論的特徴に基づいて,Explicit3Dという動的スパースグラフパイプラインを提案する。
SUN RGB-Dデータセットによる実験結果から,我々のExplicit3Dは最先端技術よりも優れた性能バランスを実現することが示された。
論文 参考訳(メタデータ) (2023-02-13T16:19:54Z) - DETR4D: Direct Multi-View 3D Object Detection with Sparse Attention [50.11672196146829]
サラウンドビュー画像を用いた3次元物体検出は、自動運転にとって必須の課題である。
マルチビュー画像における3次元オブジェクト検出のためのスパースアテンションと直接特徴クエリを探索するトランスフォーマーベースのフレームワークであるDETR4Dを提案する。
論文 参考訳(メタデータ) (2022-12-15T14:18:47Z) - Learning Canonical 3D Object Representation for Fine-Grained Recognition [77.33501114409036]
本研究では,1枚の画像から3次元空間における物体の変動を再現する微粒な物体認識のための新しいフレームワークを提案する。
我々は,物体を3次元形状とその外観の合成として表現し,カメラ視点の影響を排除した。
深部表現に3次元形状と外観を併用することにより,物体の識別表現を学習する。
論文 参考訳(メタデータ) (2021-08-10T12:19:34Z) - Object Wake-up: 3-D Object Reconstruction, Animation, and in-situ
Rendering from a Single Image [58.69732754597448]
椅子の写真があれば、椅子の3次元形状を抽出し、その可愛らしい調音や動きをアニメーション化し、元の画像空間でその場でレンダリングできるだろうか?
単一画像中の調音対象を抽出・操作するための自動アプローチを考案する。
論文 参考訳(メタデータ) (2021-08-05T16:20:12Z) - Shape from Blur: Recovering Textured 3D Shape and Motion of Fast Moving
Objects [115.71874459429381]
本研究では, 物体の3次元形状, テクスチャ, 動きを単一動画像から共同で再構成する新しい課題について述べる。
従来の手法では2次元画像領域でのみ遅延問題に対処するが、3次元領域における全ての物体特性の厳密なモデリングは任意の物体の動きの正確な記述を可能にする。
論文 参考訳(メタデータ) (2021-06-16T13:18:08Z) - Sparse Pose Trajectory Completion [87.31270669154452]
サンプルの少ないビューにのみオブジェクトが出現するデータセットを使用しても学習する方法を提案する。
これはクロスモーダルポーズ軌道伝達機構によって実現される。
この手法はPix3DおよびShapeNetデータセット上で評価される。
論文 参考訳(メタデータ) (2021-05-01T00:07:21Z) - MonoRUn: Monocular 3D Object Detection by Reconstruction and Uncertainty
Propagation [4.202461384355329]
我々は,高密度な対応や幾何学を自己教師型で学習する,新しい3次元オブジェクト検出フレームワークMonoRUnを提案する。
提案手法は,KITTIベンチマークの最先端手法より優れている。
論文 参考訳(メタデータ) (2021-03-23T15:03:08Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。