論文の概要: Tracking Feral Horses in Aerial Video Using Oriented Bounding Boxes
- arxiv url: http://arxiv.org/abs/2603.03604v1
- Date: Wed, 04 Mar 2026 00:27:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.133896
- Title: Tracking Feral Horses in Aerial Video Using Oriented Bounding Boxes
- Title(参考訳): 配向バウンディングボックスを用いた航空映像における胎児の追跡
- Authors: Saeko Takizawa, Tamao Maeda, Shinya Yamamoto, Hiroaki Kawashima,
- Abstract要約: マルチアニマルトラッキングでは、軸方向のバウンディングボックス(bbox)が広く使用されているが、グループ全体の空中トップビュー映像では、複雑な背景のためにパフォーマンスが劣化する。
OBB中心のパッチを抽出し,3つの検出器を適用し,最終ラベルを決定するヘッドオリエンテーション推定法を提案する。
299枚のテスト画像を用いて実験したところ,本手法は99.3%の精度で個々のモデルより優れていることがわかった。
- 参考スコア(独自算出の注目度): 2.099922236065961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The social structures of group-living animals such as feral horses are diverse and remain insufficiently understood, even within a single species. To investigate group dynamics, aerial videos are often utilized to track individuals and analyze their movement trajectories, which are essential for evaluating inter-individual interactions and comparing social behaviors. Accurate individual tracking is therefore crucial. In multi-animal tracking, axis-aligned bounding boxes (bboxes) are widely used; however, for aerial top-view footage of entire groups, their performance degrades due to complex backgrounds, small target sizes, high animal density, and varying body orientations. To address this issue, we employ oriented bounding boxes (OBBs), which include rotation angles and reduce unnecessary background. Nevertheless, current OBB detectors such as YOLO-OBB restrict angles within a 180$^{\circ}$ range, making it impossible to distinguish head from tail and often causing sudden 180$^{\circ}$ flips across frames, which severely disrupts continuous tracking. To overcome this limitation, we propose a head-orientation estimation method that crops OBB-centered patches, applies three detectors (head, tail, and head-tail), and determines the final label through IoU-based majority voting. Experiments using 299 test images show that our method achieves 99.3% accuracy, outperforming individual models, demonstrating its effectiveness for robust OBB-based tracking.
- Abstract(参考訳): フェラル馬のような群生動物の社会構造は多様であり、単一の種でも十分に理解されていない。
グループダイナミクスを調べるために、空中ビデオは個人を追跡し、その移動軌跡を分析するためにしばしば使用される。
そのため、正確な個人追跡が重要である。
マルチアニマルトラッキングでは、軸方向のバウンディングボックス(bbox)が広く使用されているが、全グループの空中トップビュー映像では、複雑な背景、小さなターゲットサイズ、高い動物密度、様々な身体の向きによってパフォーマンスが劣化している。
この問題に対処するために、回転角と不要な背景の低減を含む向き付きバウンディングボックス(OBB)を用いる。
それでも、YOLO-OBBのような現在のOBB検出器は180$^{\circ}$の範囲内で角度を制限しているため、頭と尾を区別することは不可能であり、しばしばフレーム間の急激な180$^{\circ}$フリップを引き起こし、連続的な追跡を著しく妨げている。
この制限を克服するため,OBB中心のパッチを抽出し,3つの検出器(頭部,尾部,尾部)を適用し,IoUをベースとした多数決投票により最終ラベルを決定するヘッドオリエンテーション推定手法を提案する。
299枚のテスト画像を用いた実験により,本手法は99.3%の精度で精度を達成し,個人モデルよりも優れ,頑健なOBBトラッキングの有効性を示した。
関連論文リスト
- Video Individual Counting and Tracking from Moving Drones: A Benchmark and Methods [51.91154554622608]
moveDroneCrowd++は、移動中のドローンが捉えた、密集した群衆のカウントと追跡のための、最大のビデオレベルのデータセットである。
また,GD3Aを提案する。GD3Aは,特定位置化を回避する密度マップに基づくビデオ個人カウント手法である。
実験結果から,本手法は群集や複雑な運動下での既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2026-01-18T17:17:31Z) - Self-Supervised Animal Identification for Long Videos [0.8233028449337972]
我々は,動物識別をグローバルクラスタリングタスクとして再編成する,効率的で自己管理的な手法を提案する。
私たちのフレームワークは1000以上のラベル付きフレームでトレーニングされた教師付きベースラインと一致または超えます。
この研究により、消費者階級のハードウェア上で、実用的で高精度な動物識別が可能になる。
論文 参考訳(メタデータ) (2026-01-14T17:53:59Z) - Group Inertial Poser: Multi-Person Pose and Global Translation from Sparse Inertial Sensors and Ultra-Wideband Ranging [28.86800972797388]
Group Inertial Poserは、身体のポーズを強く推定し、複数の個人に対してグローバルな翻訳を行うための新しいアプローチである。
Group Inertial Poserは、超広帯域距離(UWB)からの2組のセンサー間の絶対距離を推定する
2人追跡のための最初のIMU+UWBデータセットであるGIP-DBを導入する。
論文 参考訳(メタデータ) (2025-10-24T17:11:50Z) - BaboonLand Dataset: Tracking Primates in the Wild and Automating Behaviour Recognition from Drone Videos [0.8074955699721389]
本研究では,バブーン検出,追跡,行動認識のための,ドローンビデオからの新たなデータセットを提案する。
Baboon検出データセットは、ドローンビデオにすべてのbaboonをバウンディングボックスで手動でアノテートすることで作成されている。
行動認識データセットは、各動物を中心としたビデオサブリージョンであるミニシーンにトラックを変換することで生成される。
論文 参考訳(メタデータ) (2024-05-27T23:09:37Z) - EarlyBird: Early-Fusion for Multi-View Tracking in the Bird's Eye View [6.093524345727119]
本研究では,バードアイビューの早期融合により,検出と追跡の両面で高い精度が得られることを示す。
EarlyBirdは最先端の手法より優れており、現在のWildtrackの状態を+4.6 MOTAと+5.6 IDF1で改善している。
論文 参考訳(メタデータ) (2023-10-20T08:27:21Z) - BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in Bird's-Eye View [54.48052449493636]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションにおいて重要な役割を果たす。
BEVTrackは、シンプルだが効果的な動きに基づくトラッキング手法である。
我々は,BEVTrackが200FPSで動作しながら最先端の結果を達成し,リアルタイム適用性を実現していることを示す。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - Tracking Different Ant Species: An Unsupervised Domain Adaptation
Framework and a Dataset for Multi-object Tracking [6.0409040218619685]
本稿では,データ駆動型多目的トラッカーを提案する。
アリ追跡問題に対する新しいデータセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-01-25T13:00:16Z) - Unsupervised Learning of Accurate Siamese Tracking [68.58171095173056]
分類枝と回帰枝の両方で時間対応を学習できる新しい教師なし追跡フレームワークを提案する。
トラッカーは、トラッカーネットやLaSOTのような大規模データセット上で、教師なしの手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2022-04-04T13:39:43Z) - Hybrid Tracker with Pixel and Instance for Video Panoptic Segmentation [50.62685357414904]
ビデオパノプティカル係数(VPS)は、コヒーレントなパノプティカルセグメンテーションを生成し、ビデオフレーム全体の全ピクセルのアイデンティティを追跡することを目的としている。
単一トラッカーの限界を取り除くために,軽量かつ共同的な追跡モデルであるHybridTrackerを提案する。
総合的な実験により、HybridTrackerはCityscapes-VPSとVIPERデータセットの最先端メソッドよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-03-02T16:21:55Z) - AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild [51.35013619649463]
我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
論文 参考訳(メタデータ) (2021-03-24T15:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。