論文の概要: Watching Swarm Dynamics from Above: A Framework for Advanced Object Tracking in Drone Videos
- arxiv url: http://arxiv.org/abs/2406.07680v1
- Date: Tue, 11 Jun 2024 19:57:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-13 21:16:01.871847
- Title: Watching Swarm Dynamics from Above: A Framework for Advanced Object Tracking in Drone Videos
- Title(参考訳): ドローンビデオにおける高度な物体追跡のためのフレームワークAboveのSwarm Dynamics
- Authors: Duc Pham, Matthew Hansen, Félicie Dhellemmens, Jens Krause, Pia Bideau,
- Abstract要約: 本研究では,無人ドローン映像から海中の魚の群れを追跡する新しい手法を提案する。
我々のフレームワークは、2Dで古典的な物体追跡を行うだけでなく、映像データとドローン搭載センサー情報(GPSとIMU)を融合させることで、世界座標における魚学校の位置と空間的拡張を追跡する。
提示された枠組みにより、研究者は非侵襲的でスケーラブルな方法で、自然の社会的・環境的な文脈で魚学校の集団行動を研究することができる。
- 参考スコア(独自算出の注目度): 2.2159863221761165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Easily accessible sensors, like drones with diverse onboard sensors, have greatly expanded studying animal behavior in natural environments. Yet, analyzing vast, unlabeled video data, often spanning hours, remains a challenge for machine learning, especially in computer vision. Existing approaches often analyze only a few frames. Our focus is on long-term animal behavior analysis. To address this challenge, we utilize classical probabilistic methods for state estimation, such as particle filtering. By incorporating recent advancements in semantic object segmentation, we enable continuous tracking of rapidly evolving object formations, even in scenarios with limited data availability. Particle filters offer a provably optimal algorithmic structure for recursively adding new incoming information. We propose a novel approach for tracking schools of fish in the open ocean from drone videos. Our framework not only performs classical object tracking in 2D, instead it tracks the position and spatial expansion of the fish school in world coordinates by fusing video data and the drone's on board sensor information (GPS and IMU). The presented framework for the first time allows researchers to study collective behavior of fish schools in its natural social and environmental context in a non-invasive and scalable way.
- Abstract(参考訳): さまざまなセンサーを搭載したドローンのような、簡単にアクセスできるセンサーは、自然環境における動物行動の研究を大幅に拡大した。
しかし、しばしば数時間にわたる膨大なラベルのないビデオデータを分析することは、機械学習、特にコンピュータビジョンにとって依然として課題である。
既存のアプローチでは、ほんの数フレームしか分析できないことが多い。
我々の焦点は、長期的な動物行動分析である。
この課題に対処するために、粒子フィルタリングのような古典的確率的手法を用いて状態推定を行う。
セマンティックオブジェクトセグメンテーションの最近の進歩を取り入れることで、データ可用性に制限のあるシナリオであっても、急速に進化するオブジェクトの連続的な追跡を可能にする。
粒子フィルタは、新しい入ってくる情報を再帰的に追加するための、証明可能なアルゴリズム構造を提供する。
本研究では,無人ドローン映像から海中の魚の群れを追跡する新しい手法を提案する。
我々のフレームワークは、2Dで古典的な物体追跡を行うだけでなく、ビデオデータとドローンの搭載センサー情報(GPSとIMU)を融合させることで、世界座標における魚学校の位置と空間的拡張を追跡する。
提示された枠組みにより、研究者は非侵襲的でスケーラブルな方法で、自然の社会的・環境的な文脈で魚学校の集団行動を研究することができる。
関連論文リスト
- Open3DTrack: Towards Open-Vocabulary 3D Multi-Object Tracking [73.05477052645885]
オープンな語彙的3Dトラッキングを導入し、3Dトラッキングの範囲を広げて、定義済みのカテゴリを超えてオブジェクトを含める。
本稿では,オープン語彙機能を3次元トラッキングフレームワークに統合し,オブジェクトクラスが見えないように一般化する手法を提案する。
論文 参考訳(メタデータ) (2024-10-02T15:48:42Z) - PointOdyssey: A Large-Scale Synthetic Dataset for Long-Term Point
Tracking [90.29143475328506]
本稿では,大規模合成データセットとデータ生成フレームワークであるPointOdysseyを紹介する。
私たちのゴールは、自然主義的な動きを持つ長いビデオに重点を置いて、最先端の技術を推し進めることです。
実世界のモーションキャプチャーデータを用いて変形可能なキャラクタをアニメーション化し、モーションキャプチャー環境に合わせて3Dシーンを構築し、リアルビデオ上で構造から抽出したトラジェクトリを用いてカメラ視点を描画する。
論文 参考訳(メタデータ) (2023-07-27T17:58:11Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - Semi-Supervised Visual Tracking of Marine Animals using Autonomous
Underwater Vehicles [0.40498500266986387]
海洋生物のその場での視覚観察は、行動的理解と周囲の生態系との関係の発達に不可欠である。
近年、カメラとGPU機能を備えた組み込みコンピュータを備えた自律型水中車両が様々な用途で開発されている。
半教師付き追跡アルゴリズムは、完全な教師付き追跡アルゴリズムよりも少ないデータを必要とするため、代替の追跡ソリューションを提供することができる。
論文 参考訳(メタデータ) (2023-02-14T21:08:52Z) - Multi-Object Tracking with Deep Learning Ensemble for Unmanned Aerial
System Applications [0.0]
多目的追跡(MOT)は、軍事防衛分野における状況認識の重要な構成要素である。
本稿では,リアルタイムな状況下での騒音に対応するために,頑健なオブジェクト追跡アーキテクチャを提案する。
本稿では,遅延空間における実体軌道の予測にシーケンス・ツー・シーケンス・アーキテクチャを用いる,Deep Extended Kalman Filter (DeepEKF) と呼ばれるキネマティックな予測モデルを提案する。
論文 参考訳(メタデータ) (2021-10-05T13:50:38Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild [51.35013619649463]
我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
論文 参考訳(メタデータ) (2021-03-24T15:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。