論文の概要: Removing Dynamic Objects for Static Scene Reconstruction using Light
Fields
- arxiv url: http://arxiv.org/abs/2003.11076v1
- Date: Tue, 24 Mar 2020 19:05:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 09:35:14.322791
- Title: Removing Dynamic Objects for Static Scene Reconstruction using Light
Fields
- Title(参考訳): 光フィールドを用いた静的シーン再構成のための動的オブジェクトの除去
- Authors: Pushyami Kaveti, Sammie Katt, Hanumant Singh
- Abstract要約: 動的環境は視覚的同時ローカライゼーションとマッピング(SLAM)アルゴリズムに課題をもたらす。
光電場は、空間の1つの点から現れる光線の束を捉え、それらを再焦点を合わせることで、ダイナミックな物体を観察することができる。
動的オブジェクトの存在下で静的な背景のイメージを再集中的に合成する手法を提案する。
- 参考スコア(独自算出の注目度): 2.286041284499166
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: There is a general expectation that robots should operate in environments
that consist of static and dynamic entities including people, furniture and
automobiles. These dynamic environments pose challenges to visual simultaneous
localization and mapping (SLAM) algorithms by introducing errors into the
front-end. Light fields provide one possible method for addressing such
problems by capturing a more complete visual information of a scene. In
contrast to a single ray from a perspective camera, Light Fields capture a
bundle of light rays emerging from a single point in space, allowing us to see
through dynamic objects by refocusing past them.
In this paper we present a method to synthesize a refocused image of the
static background in the presence of dynamic objects that uses a light-field
acquired with a linear camera array. We simultaneously estimate both the depth
and the refocused image of the static scene using semantic segmentation for
detecting dynamic objects in a single time step. This eliminates the need for
initializing a static map . The algorithm is parallelizable and is implemented
on GPU allowing us execute it at close to real time speeds. We demonstrate the
effectiveness of our method on real-world data acquired using a small robot
with a five camera array.
- Abstract(参考訳): ロボットは、人間、家具、自動車を含む静的でダイナミックな実体からなる環境で動作すべきだという一般的な期待がある。
これらの動的環境は、フロントエンドにエラーを導入することで、視覚的同時ローカライゼーションとマッピング(SLAM)アルゴリズムに課題をもたらす。
ライトフィールドは、シーンのより完全な視覚情報をキャプチャすることで、このような問題に対処する方法の1つを提供する。
パースペクティブカメラからの1つの光線とは対照的に、光場は空間の1つの点から現れる光の束を捉えるので、それを通り抜けることで動的物体を見ることができる。
本稿では,リニアカメラアレイで取得した光フィールドを用いた動的物体の存在下で,静的背景の再焦点像を合成する手法を提案する。
意味セグメンテーションを用いて,静止シーンの奥行きと再焦点画像の両方を同時に推定し,単一の時間ステップで動的物体を検出する。
これにより、静的マップを初期化する必要がなくなる。
このアルゴリズムは並列化可能で、GPU上に実装されており、リアルタイムに近い速度で実行できます。
5台のカメラアレイを持つ小型ロボットを用いて得られた実世界のデータに対する本手法の有効性を実証する。
関連論文リスト
- OmniLocalRF: Omnidirectional Local Radiance Fields from Dynamic Videos [14.965321452764355]
我々はOmnidirectional Local Radiance Fields (OmniLocalRF)と呼ばれる新しいアプローチを導入し、静的のみのシーンビューをレンダリングする。
本手法は局所放射界の原理と全方位光の双方向最適化を組み合わせたものである。
実験により,OmniLocalRFは定性的,定量的に既存手法より優れていることを確認した。
論文 参考訳(メタデータ) (2024-03-31T12:55:05Z) - Semantic Attention Flow Fields for Monocular Dynamic Scene Decomposition [51.67493993845143]
時間変化の色、密度、シーンフロー、セマンティクス、アテンション情報をキャプチャするニューラルボリュームを再構成する。
セマンティクスと注意により、時空を通して背景から別々に有意な前景オブジェクトを特定できる。
本手法は,教師なしの方法で動的シーンを分解し,教師付き手法と競合する性能を示す。
論文 参考訳(メタデータ) (2023-03-02T19:00:05Z) - DynIBaR: Neural Dynamic Image-Based Rendering [79.44655794967741]
複雑な動的シーンを描写したモノクロ映像から新しいビューを合成する問題に対処する。
我々は,近傍のビューから特徴を集約することで,新しい視点を合成するボリューム画像ベースのレンダリングフレームワークを採用する。
動的シーンデータセットにおける最先端手法の大幅な改善を示す。
論文 参考訳(メタデータ) (2022-11-20T20:57:02Z) - D$^2$NeRF: Self-Supervised Decoupling of Dynamic and Static Objects from
a Monocular Video [23.905013304668426]
モノクロ映像が与えられたとき、静的環境を回復しながら動的オブジェクトを分割して分離することは、マシンインテリジェンスにおいて広く研究されている問題である。
Decoupled Dynamic Neural Radiance Field (D$2$NeRF) は、モノクロ映像を撮り、3Dシーンの表現を学習する自己教師型アプローチである。
論文 参考訳(メタデータ) (2022-05-31T14:41:24Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - TwistSLAM: Constrained SLAM in Dynamic Environment [0.0]
本稿では,シーン内の動的オブジェクトをトラッキングできる意味的・動的・ステレオSLAMシステムTwistSLAMを提案する。
我々のアルゴリズムは、それらの意味クラスに応じて点の集合を生成する。
環境の静的な部分を使って、カメラをしっかりとローカライズし、残りのオブジェクトを追跡する。
論文 参考訳(メタデータ) (2022-02-24T22:08:45Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - D-NeRF: Neural Radiance Fields for Dynamic Scenes [72.75686949608624]
そこで我々は,D-NeRF(D-NeRF)を動的領域に拡張する手法を提案する。
D-NeRFは、周囲を動き回るカメラから、剛体で非剛体な動きの下で物体のイメージを再構成する。
我々は,剛体・調音・非剛体動作下での物体のシーンに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2020-11-27T19:06:50Z) - Empty Cities: a Dynamic-Object-Invariant Space for Visual SLAM [6.693607456009373]
本稿では,シーンの静的な画像を得るためのデータ駆動型アプローチを提案する。
本研究では,都市環境の画像を局所化とマッピングに適したリアルな静的フレームに変換するためのエンドツーエンドのディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-15T10:31:12Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。