論文の概要: Moving Object Detection from Moving Camera Using Focus of Expansion Likelihood and Segmentation
- arxiv url: http://arxiv.org/abs/2507.13628v1
- Date: Fri, 18 Jul 2025 03:40:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.178535
- Title: Moving Object Detection from Moving Camera Using Focus of Expansion Likelihood and Segmentation
- Title(参考訳): 拡大形態とセグメンテーションに着目した移動カメラからの移動物体検出
- Authors: Masahiro Ogawa, Qi An, Atsushi Yamashita,
- Abstract要約: Focus of Expansion Likelihood and (FoELS) is based on the core idea of the optical flow and texture information。
FoELSは光学フローからの膨張の焦点を計算し、初期運動確率を外れ値から導き出す。
複雑な構成のシーン、回転カメラの動き、平行移動などの課題を効果的に処理する。
- 参考スコア(独自算出の注目度): 6.300795352722744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Separating moving and static objects from a moving camera viewpoint is essential for 3D reconstruction, autonomous navigation, and scene understanding in robotics. Existing approaches often rely primarily on optical flow, which struggles to detect moving objects in complex, structured scenes involving camera motion. To address this limitation, we propose Focus of Expansion Likelihood and Segmentation (FoELS), a method based on the core idea of integrating both optical flow and texture information. FoELS computes the focus of expansion (FoE) from optical flow and derives an initial motion likelihood from the outliers of the FoE computation. This likelihood is then fused with a segmentation-based prior to estimate the final moving probability. The method effectively handles challenges including complex structured scenes, rotational camera motion, and parallel motion. Comprehensive evaluations on the DAVIS 2016 dataset and real-world traffic videos demonstrate its effectiveness and state-of-the-art performance.
- Abstract(参考訳): 移動カメラの観点から移動物体と静止物体を分離することは、ロボット工学における3次元再構成、自律ナビゲーション、シーン理解に不可欠である。
既存のアプローチは主に光学フローに依存しており、カメラの動きを含む複雑な構造されたシーンで動く物体を検出するのに苦労している。
この制限に対処するため、光学フローとテクスチャ情報の統合という中核的な考え方に基づくFoELS(Fopansion Likelihood and Segmentation)を提案する。
FoELSは、光学フローからFoEの焦点を計算し、FoE計算の外れ値から初期運動確率を導出する。
この確率は、最終的な移動確率を見積もる前にセグメンテーションベースで融合される。
この方法は複雑な構成されたシーン、回転カメラの動き、平行移動などの課題を効果的に処理する。
DAVIS 2016データセットと実世界のトラフィックビデオに関する総合的な評価は、その有効性と最先端のパフォーマンスを示している。
関連論文リスト
- MonoMobility: Zero-Shot 3D Mobility Analysis from Monocular Videos [43.906631899750906]
モノクロビデオから0ショットで3Dモビリティを解析できる革新的なフレームワークを提案する。
このフレームワークは、単眼ビデオのみを使用して、動きの部分と動きの属性を正確に解析することができ、注釈付きトレーニングデータの必要性を完全に排除することができる。
そこで本研究では,音声オブジェクトに特化して設計された動的シーン最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-05-17T06:21:05Z) - Segment Any Motion in Videos [80.72424676419755]
本研究では,長距離軌道運動キューとDINOに基づく意味的特徴を組み合わせた移動物体セグメンテーションを提案する。
本モデルでは,動作を優先し,セマンティックサポートを統合しつつ,時空間軌道注意と動き・セマンティック・デカップリング・エンベディングを用いた。
論文 参考訳(メタデータ) (2025-03-28T09:34:11Z) - Instance-Level Moving Object Segmentation from a Single Image with Events [84.12761042512452]
移動対象セグメンテーションは、複数の移動対象を含む動的なシーンを理解する上で重要な役割を果たす。
従来の手法では、物体の画素変位がカメラの動きや物体の動きによって引き起こされるかどうかを区別することが困難であった。
近年の進歩は、従来の画像の不適切な動作モデリング機能に対抗するために、新しいイベントカメラの動作感度を利用する。
補完的なテクスチャとモーションキューを統合した,最初のインスタンスレベルの移動オブジェクトセグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-18T15:56:46Z) - Motion Segmentation from a Moving Monocular Camera [3.115818438802931]
我々は、点軌跡法と光フロー法という、単眼運動分割手法の2つの一般的な分岐を生かしている。
我々は異なるシーン構造で様々な複雑な物体の動きを同時にモデル化することができる。
提案手法は,KT3DMoSegデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2023-09-24T22:59:05Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Self-supervised Video Object Segmentation by Motion Grouping [79.13206959575228]
動きの手がかりを利用して物体をセグメンテーションできるコンピュータビジョンシステムを開発した。
本稿では,光フローフレームを一次オブジェクトと背景に分割するトランスフォーマーの簡単なバリエーションを紹介する。
提案したアーキテクチャを公開ベンチマーク(DAVIS2016, SegTrackv2, FBMS59)で評価する。
論文 参考訳(メタデータ) (2021-04-15T17:59:32Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。