論文の概要: Vision-Based Guidance for Tracking Dynamic Objects
- arxiv url: http://arxiv.org/abs/2104.09301v1
- Date: Mon, 19 Apr 2021 13:45:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 21:59:21.151958
- Title: Vision-Based Guidance for Tracking Dynamic Objects
- Title(参考訳): 動的物体追跡のための視覚ベース誘導
- Authors: Pritam Karmokar, Kashish Dhal, William J. Beksi, Animesh Chakravarthy
- Abstract要約: 本稿では,レンデブース・コーン・アプローチに基づく誘導法則を用いて動的物体の追跡を行う視覚ベースのフレームワークを提案する。
これらの誘導法により、単眼カメラを備えた無人航空機システムは、センサーの視野内の移動物体を継続的に追従することができる。
- 参考スコア(独自算出の注目度): 3.7590550630861443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a novel vision-based framework for tracking dynamic
objects using guidance laws based on a rendezvous cone approach. These guidance
laws enable an unmanned aircraft system equipped with a monocular camera to
continuously follow a moving object within the sensor's field of view. We
identify and classify feature point estimators for managing the occurrence of
occlusions during the tracking process in an exclusive manner. Furthermore, we
develop an open-source simulation environment and perform a series of
simulations to show the efficacy of our methods.
- Abstract(参考訳): 本稿では,ランデブーコーン法に基づく誘導則を用いた動的物体追跡のための新しいビジョンベースフレームワークを提案する。
これらの誘導法により、単眼カメラを備えた無人航空機システムは、センサーの視野内の移動物体を継続的に追従することができる。
追跡過程における閉塞の発生を排他的に管理するための特徴点推定器を同定・分類する。
さらに,オープンソースのシミュレーション環境を開発し,提案手法の有効性を示すための一連のシミュレーションを行う。
関連論文リスト
- Self-Supervised Bird's Eye View Motion Prediction with Cross-Modality
Signals [38.20643428486824]
密集した鳥の視線(BEV)の動きを自己監督的に学習することは、ロボット工学と自律運転の新たな研究である。
現在の自己監督法は主に点雲間の点対応に依存する。
マルチモダリティデータを活用することで,これらの問題に効果的に対処する,新たなクロスモダリティ自己教師型トレーニングフレームワークを導入する。
論文 参考訳(メタデータ) (2024-01-21T14:09:49Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [56.95046107046027]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Visual Forecasting as a Mid-level Representation for Avoidance [8.712750753534532]
動的物体を持つ環境におけるナビゲーションの課題は、自律エージェントの研究において依然として中心的な課題である。
予測手法は約束を守るが、正確な状態情報に依存しているため、実際の実装では実用的ではない。
本研究では,視覚的予測を革新的な代替手段として提示する。
論文 参考訳(メタデータ) (2023-09-17T13:32:03Z) - S.T.A.R.-Track: Latent Motion Models for End-to-End 3D Object Tracking
with Adaptive Spatio-Temporal Appearance Representations [11.089640629116547]
トラッキング・バイ・アテンションのパラダイムに従って,3次元トラッキングのためのオブジェクト中心のトランスフォーマーベースのフレームワークを提案する。
そこで我々はS.T.A.R.-Trackを提案する。これは新しい潜伏運動モデル(LMM)を用いてオブジェクトクエリを調整し、潜伏空間における視方向や照明条件の変化を考慮に入れている。
論文 参考訳(メタデータ) (2023-06-30T12:22:41Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Tracking through Containers and Occluders in the Wild [32.86030395660071]
重い閉塞と封じ込めによる視覚追跡のための新しいベンチマークとモデルである$textbfTCOW$を紹介した。
我々は、教師付き学習とモデル性能の構造化評価の両方をサポートするために、合成データセットと注釈付き実データセットの混合を作成する。
最近の2つのトランスフォーマーベースビデオモデルを評価し,タスク変動の特定の設定下でターゲットを驚くほど追跡できるが,トラッキングモデルが真のオブジェクト永続性(permanence)の概念を獲得したと主張するまでには,かなりの性能差が残っていることを発見した。
論文 参考訳(メタデータ) (2023-05-04T17:59:58Z) - FlowBot3D: Learning 3D Articulation Flow to Manipulate Articulated
Objects [13.506919007206001]
そこで本研究では,様々な物体の潜在的な動きを学習して予測する視覚ベースシステムを提案する。
我々は,このベクトル場に基づく解析的運動プランナを配置し,最大調音を与えるポリシを実現する。
その結果,本システムは実世界のシミュレーション実験と実世界実験の両方において,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-05-09T15:35:33Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Self-supervised Video Object Segmentation by Motion Grouping [79.13206959575228]
動きの手がかりを利用して物体をセグメンテーションできるコンピュータビジョンシステムを開発した。
本稿では,光フローフレームを一次オブジェクトと背景に分割するトランスフォーマーの簡単なバリエーションを紹介する。
提案したアーキテクチャを公開ベンチマーク(DAVIS2016, SegTrackv2, FBMS59)で評価する。
論文 参考訳(メタデータ) (2021-04-15T17:59:32Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Self-supervised Object Tracking with Cycle-consistent Siamese Networks [55.040249900677225]
我々は、オブジェクト追跡のためのサイクル一貫性の自己監視フレームワークにおいて、エンドツーエンドのSiameseネットワークを利用する。
トラッキングフレームワークにシームズ領域の提案とマスク回帰ネットワークを統合することで,各フレームのアノテーションを使わずに,より高速で正確なトラッカーを学習できるようにすることを提案する。
論文 参考訳(メタデータ) (2020-08-03T04:10:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。