論文の概要: Semantic Flow-guided Motion Removal Method for Robust Mapping
- arxiv url: http://arxiv.org/abs/2010.06876v1
- Date: Wed, 14 Oct 2020 08:40:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 13:38:10.700440
- Title: Semantic Flow-guided Motion Removal Method for Robust Mapping
- Title(参考訳): ロバストマッピングのための意味フロー誘導運動除去法
- Authors: Xudong Lv, Boya Wang, Dong Ye, and Shuo Wang
- Abstract要約: 動作領域の抽出に意味情報と光フローを利用する新しい動き除去法を提案する。
ORB-SLAM2は運動除去法と統合され,室内および屋外の動的環境において最高の性能を示した。
- 参考スコア(独自算出の注目度): 7.801798747561309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moving objects in scenes are still a severe challenge for the SLAM system.
Many efforts have tried to remove the motion regions in the images by detecting
moving objects. In this way, the keypoints belonging to motion regions will be
ignored in the later calculations. In this paper, we proposed a novel motion
removal method, leveraging semantic information and optical flow to extract
motion regions. Different from previous works, we don't predict moving objects
or motion regions directly from image sequences. We computed rigid optical
flow, synthesized by the depth and pose, and compared it against the estimated
optical flow to obtain initial motion regions. Then, we utilized K-means to
finetune the motion region masks with instance segmentation masks. The
ORB-SLAM2 integrated with the proposed motion removal method achieved the best
performance in both indoor and outdoor dynamic environments.
- Abstract(参考訳): SLAMシステムにとって、シーン内のオブジェクトの移動は深刻な課題である。
動く物体を検出することで、画像中の動き領域を取り除こうとする多くの努力がなされている。
このように、動き領域に属するキーポイントは、後の計算では無視される。
本稿では,意味情報と光流を利用して運動領域を抽出する新しい運動除去法を提案する。
以前の研究と異なり、動いた物体や動き領域を直接画像シーケンスから予測することはできない。
深さとポーズで合成した剛性光流を計算し,推定した光流と比較して初期運動領域を得る。
次に,K-meansを用いて運動領域マスクを例分割マスクで微調整した。
提案手法と統合したorb-slam2は,室内および屋外の動的環境において最高の性能を得た。
関連論文リスト
- Investigation of moving objects through atmospheric turbulence from a non-stationary platform [0.5735035463793008]
本研究では,移動カメラから撮像した画像列から移動物体に対応する光流場を抽出する。
提案手法はまず,光学的流れ場を計算し,カメラの動きによって誘導される流れ場を補償する運動モデルを作成する。
この作業で使用されるシーケンスとコードは、すべてオープンソースで、著者にコンタクトすることで利用可能である。
論文 参考訳(メタデータ) (2024-10-29T00:54:28Z) - Motion-adaptive Separable Collaborative Filters for Blind Motion Deblurring [71.60457491155451]
様々な動きによって生じる画像のぼかしを除去することは、難しい問題である。
本研究では,動き適応型分離型協調フィルタと呼ばれる実世界のデブロアリングフィルタモデルを提案する。
本手法は,実世界の動きのぼかし除去に有効な解法を提供し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-04-19T19:44:24Z) - DEMOS: Dynamic Environment Motion Synthesis in 3D Scenes via Local
Spherical-BEV Perception [54.02566476357383]
本研究では,動的環境運動合成フレームワーク(DEMOS)を提案する。
次に、最終動作合成のために潜在動作を動的に更新する。
その結果,本手法は従来の手法よりも優れ,動的環境の処理性能も優れていた。
論文 参考訳(メタデータ) (2024-03-04T05:38:16Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z) - MovingParts: Motion-based 3D Part Discovery in Dynamic Radiance Field [42.236015785792965]
動的シーン再構成と部分発見のためのNeRF法である移動部について述べる。
ラグランジアンビューでは、物体上の粒子の軌跡を追跡することにより、シーンの動きをパラメータ化する。
ラグランジアンビューは、部分レベルの剛体運動の合成としてシーンの動きを分解することで、部品を発見するのに便利である。
論文 参考訳(メタデータ) (2023-03-10T05:06:30Z) - Self-supervised Motion Learning from Static Images [36.85209332144106]
Motion from Static Images (MoSI) はモーション情報をエンコードすることを学ぶ。
MoSIは、下流のデータセットを微調整することなく、大きな動きを持つ領域を発見することができる。
下流のデータセットを微調整することなく、MoSIが大きな動きを持つ領域を発見できることを実証します。
論文 参考訳(メタデータ) (2021-04-01T03:55:50Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Exposure Trajectory Recovery from Motion Blur [90.75092808213371]
ダイナミックシーンにおける動きのぼやけは重要な研究テーマである。
本稿では、ぼやけた画像に含まれる動き情報を表す露光軌跡を定義する。
静止シャープ画像の画素方向の変位をモデル化するための新しい動きオフセット推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-06T05:23:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。