論文の概要: Finding 3D Positions of Distant Objects from Noisy Camera Movement and Semantic Segmentation Sequences
- arxiv url: http://arxiv.org/abs/2509.20906v1
- Date: Thu, 25 Sep 2025 08:46:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.79809
- Title: Finding 3D Positions of Distant Objects from Noisy Camera Movement and Semantic Segmentation Sequences
- Title(参考訳): ノイズカメラ運動とセマンティックセグメンテーションシーケンスから遠距離物体の3次元位置を求める
- Authors: Julius Pesonen, Arno Solin, Eija Honkavaara,
- Abstract要約: カメラの一連の測定に基づく3Dオブジェクトのローカライゼーションは、ドローンベースの山火事監視のような安全クリティカルな監視タスクに不可欠である。
本稿では,単一目的シナリオと複数目標シナリオの両方に対して,粒子フィルタを用いてタスクを解くことができることを示す。
本手法は,グローバルナビゲーション衛星システム(GNSS)を用いた3次元シミュレーションと,ドローンによる画像分割シーケンスを用いて検討した。
- 参考スコア(独自算出の注目度): 15.431008066373089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object localisation based on a sequence of camera measurements is essential for safety-critical surveillance tasks, such as drone-based wildfire monitoring. Localisation of objects detected with a camera can typically be solved with dense depth estimation or 3D scene reconstruction. However, in the context of distant objects or tasks limited by the amount of available computational resources, neither solution is feasible. In this paper, we show that the task can be solved using particle filters for both single and multiple target scenarios. The method was studied using a 3D simulation and a drone-based image segmentation sequence with global navigation satellite system (GNSS)-based camera pose estimates. The results showed that a particle filter can be used to solve practical localisation tasks based on camera poses and image segments in these situations where other solutions fail. The particle filter is independent of the detection method, making it flexible for new tasks. The study also demonstrates that drone-based wildfire monitoring can be conducted using the proposed method paired with a pre-existing image segmentation model.
- Abstract(参考訳): カメラの一連の測定に基づく3Dオブジェクトのローカライゼーションは、ドローンベースの山火事監視のような安全クリティカルな監視タスクに不可欠である。
カメラで検出された物体の局所化は、一般的に深度推定や3次元シーン再構成によって解決できる。
しかし、利用可能な計算資源の量によって制限された遠方オブジェクトやタスクの文脈では、どちらの解も実現不可能である。
本稿では,単一目的シナリオと複数目標シナリオの両方に対して,粒子フィルタを用いてタスクを解くことができることを示す。
本手法は,グローバルナビゲーション衛星システム(GNSS)を用いた3次元シミュレーションと,ドローンによる画像分割シーケンスを用いて検討した。
その結果、他の解が失敗する状況において、カメラのポーズや画像セグメントに基づいて、粒子フィルタを用いて、現実的な局所化タスクを解くことができることがわかった。
粒子フィルタは検出法とは独立であり、新しいタスクに柔軟である。
また,既存の画像セグメンテーションモデルと組み合わせた提案手法を用いて,ドローンによる山火事モニタリングを行うことを実証した。
関連論文リスト
- DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - A Fast Location Algorithm for Very Sparse Point Clouds Based on Object
Detection [0.0]
特徴点の少ない状況下で,画像オブジェクト検出によって対象物を素早く検出するアルゴリズムを提案する。
スマートフォンを持って手動で設計したシーンで実験を行い,提案手法の高精度な位置決め速度と精度を示す。
論文 参考訳(メタデータ) (2021-10-21T05:17:48Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Continuous close-range 3D object pose estimation [1.4502611532302039]
視覚に基づく3Dポーズ推定は、固定位置に配置されない可能性のあるオブジェクトを正確に扱う必要がある。
本稿では,勾配近似粒子フィルタを用いた3次元ポーズ推定手法を提案する。
これにより、タスク実行中にこの手法をオンラインに適用して、貴重なサイクル時間を節約することができる。
論文 参考訳(メタデータ) (2020-10-02T07:48:17Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - Integration of the 3D Environment for UAV Onboard Visual Object Tracking [7.652259812856325]
無人航空機からの単一の視覚的物体追跡は、根本的な課題となる。
本研究では,モデルフリーのビジュアルオブジェクトトラッカー,スパース3D再構成,状態推定器を組み合わせたパイプラインを提案する。
画像空間ではなく3次元空間における目標位置を表現することにより,エゴモーション時のトラッキングを安定化させる。
論文 参考訳(メタデータ) (2020-08-06T18:37:29Z) - Self-Supervised Monocular Depth Estimation: Solving the Dynamic Object
Problem by Semantic Guidance [36.73303869405764]
自己監督型単眼深度推定は, 単一カメラ画像から3次元シーン情報を得る強力な方法を示す。
本稿では,移動型動的クラス(DC)オブジェクトを扱うための自己教師付き意味誘導深度推定(SGDepth)手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T09:47:27Z) - A Bayesian Filter for Multi-view 3D Multi-object Tracking with Occlusion
Handling [2.824395407508717]
提案アルゴリズムは、カメラ全体の検出総数において線形複雑である。
3次元世界フレームで動作し、オブジェクトの3次元軌道推定を提供する。
提案アルゴリズムは最新のWILDTRACKSデータセットで評価され,非常に混み合った場面で機能することが実証された。
論文 参考訳(メタデータ) (2020-01-13T09:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。