論文の概要: Vision-Based Guidance for Tracking Dynamic Objects
- arxiv url: http://arxiv.org/abs/2104.09301v1
- Date: Mon, 19 Apr 2021 13:45:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 21:59:21.151958
- Title: Vision-Based Guidance for Tracking Dynamic Objects
- Title(参考訳): 動的物体追跡のための視覚ベース誘導
- Authors: Pritam Karmokar, Kashish Dhal, William J. Beksi, Animesh Chakravarthy
- Abstract要約: 本稿では,レンデブース・コーン・アプローチに基づく誘導法則を用いて動的物体の追跡を行う視覚ベースのフレームワークを提案する。
これらの誘導法により、単眼カメラを備えた無人航空機システムは、センサーの視野内の移動物体を継続的に追従することができる。
- 参考スコア(独自算出の注目度): 3.7590550630861443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a novel vision-based framework for tracking dynamic
objects using guidance laws based on a rendezvous cone approach. These guidance
laws enable an unmanned aircraft system equipped with a monocular camera to
continuously follow a moving object within the sensor's field of view. We
identify and classify feature point estimators for managing the occurrence of
occlusions during the tracking process in an exclusive manner. Furthermore, we
develop an open-source simulation environment and perform a series of
simulations to show the efficacy of our methods.
- Abstract(参考訳): 本稿では,ランデブーコーン法に基づく誘導則を用いた動的物体追跡のための新しいビジョンベースフレームワークを提案する。
これらの誘導法により、単眼カメラを備えた無人航空機システムは、センサーの視野内の移動物体を継続的に追従することができる。
追跡過程における閉塞の発生を排他的に管理するための特徴点推定器を同定・分類する。
さらに,オープンソースのシミュレーション環境を開発し,提案手法の有効性を示すための一連のシミュレーションを行う。
関連論文リスト
- VOVTrack: Exploring the Potentiality in Videos for Open-Vocabulary Object Tracking [61.56592503861093]
オープンボキャブラリオブジェクト検出(OVD)とマルチオブジェクトトラッキング(MOT)の複雑さを両立させる。
OVMOT の既存のアプローチは、OVD と MOT の方法論を別個のモジュールとして統合することが多く、主に画像中心のレンズによる問題に焦点を当てている。
VOVTrackは、MOTとビデオ中心トレーニングに関連するオブジェクト状態を統合する新しい手法であり、ビデオオブジェクト追跡の観点からこの問題に対処する。
論文 参考訳(メタデータ) (2024-10-11T05:01:49Z) - Initialization of Monocular Visual Navigation for Autonomous Agents Using Modified Structure from Small Motion [13.69678622755871]
本稿では,自律型宇宙ロボットのためのスタンドアロンの単眼視覚的同時局在マッピング(vSLAM)パイプラインを提案する。
提案手法は, 宇宙船の点検軌道における単分子エージェントを頑健に初期化するために, 構造を小型運動から拡張する。
本手法の有効性を実証し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-09-24T21:33:14Z) - Track Anything Rapter(TAR) [0.0]
Track Anything Rapter (TAR)は、ユーザが提供するマルチモーダルクエリに基づいて、関心のあるオブジェクトを検出し、セグメンテーションし、追跡するように設計されている。
TARは、DINO、CLIP、SAMといった最先端の事前訓練モデルを使用して、クエリされたオブジェクトの相対的なポーズを推定する。
本稿では,これらの基礎モデルとカスタム高レベル制御アルゴリズムの統合によって,高度に安定かつ高精度なトラッキングシステムを実現する方法を紹介する。
論文 参考訳(メタデータ) (2024-05-19T19:51:41Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Visual Forecasting as a Mid-level Representation for Avoidance [8.712750753534532]
動的物体を持つ環境におけるナビゲーションの課題は、自律エージェントの研究において依然として中心的な課題である。
予測手法は約束を守るが、正確な状態情報に依存しているため、実際の実装では実用的ではない。
本研究では,視覚的予測を革新的な代替手段として提示する。
論文 参考訳(メタデータ) (2023-09-17T13:32:03Z) - S.T.A.R.-Track: Latent Motion Models for End-to-End 3D Object Tracking with Adaptive Spatio-Temporal Appearance Representations [10.46571824050325]
トラッキング・バイ・アテンションのパラダイムに従って,3次元トラッキングのためのオブジェクト中心のトランスフォーマーベースのフレームワークを提案する。
そこで我々はS.T.A.R.-Trackを提案する。これは新しい潜伏運動モデル(LMM)を用いてオブジェクトクエリを調整し、潜伏空間における視方向や照明条件の変化を考慮に入れている。
論文 参考訳(メタデータ) (2023-06-30T12:22:41Z) - FlowBot3D: Learning 3D Articulation Flow to Manipulate Articulated Objects [14.034256001448574]
そこで本研究では,様々な物体の潜在的な動きを学習して予測する視覚ベースシステムを提案する。
我々は,このベクトル場に基づく解析的運動プランナを配置し,最大調音を与えるポリシを実現する。
その結果,本システムは実世界のシミュレーション実験と実世界実験の両方において,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-05-09T15:35:33Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Self-supervised Video Object Segmentation by Motion Grouping [79.13206959575228]
動きの手がかりを利用して物体をセグメンテーションできるコンピュータビジョンシステムを開発した。
本稿では,光フローフレームを一次オブジェクトと背景に分割するトランスフォーマーの簡単なバリエーションを紹介する。
提案したアーキテクチャを公開ベンチマーク(DAVIS2016, SegTrackv2, FBMS59)で評価する。
論文 参考訳(メタデータ) (2021-04-15T17:59:32Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Self-supervised Object Tracking with Cycle-consistent Siamese Networks [55.040249900677225]
我々は、オブジェクト追跡のためのサイクル一貫性の自己監視フレームワークにおいて、エンドツーエンドのSiameseネットワークを利用する。
トラッキングフレームワークにシームズ領域の提案とマスク回帰ネットワークを統合することで,各フレームのアノテーションを使わずに,より高速で正確なトラッカーを学習できるようにすることを提案する。
論文 参考訳(メタデータ) (2020-08-03T04:10:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。