論文の概要: Swarm behavior tracking based on a deep vision algorithm
- arxiv url: http://arxiv.org/abs/2204.03319v1
- Date: Thu, 7 Apr 2022 09:32:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 14:54:36.197864
- Title: Swarm behavior tracking based on a deep vision algorithm
- Title(参考訳): ディープビジョンアルゴリズムに基づく群行動追跡
- Authors: Meihong Wu, Xiaoyan Cao, Shihui Guo
- Abstract要約: ビデオ中のマルチアント追跡のための検出・追跡フレームワークを提案する。
本手法は従来の昆虫追跡法に比べて6~10倍高速である。
- 参考スコア(独自算出の注目度): 5.070542698701158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The intelligent swarm behavior of social insects (such as ants) springs up in
different environments, promising to provide insights for the study of embodied
intelligence. Researching swarm behavior requires that researchers could
accurately track each individual over time. Obviously, manually labeling
individual insects in a video is labor-intensive. Automatic tracking methods,
however, also poses serious challenges: (1) individuals are small and similar
in appearance; (2) frequent interactions with each other cause severe and
long-term occlusion. With the advances of artificial intelligence and computing
vision technologies, we are hopeful to provide a tool to automate monitor
multiple insects to address the above challenges. In this paper, we propose a
detection and tracking framework for multi-ant tracking in the videos by: (1)
adopting a two-stage object detection framework using ResNet-50 as backbone and
coding the position of regions of interest to locate ants accurately; (2) using
the ResNet model to develop the appearance descriptors of ants; (3)
constructing long-term appearance sequences and combining them with motion
information to achieve online tracking. To validate our method, we construct an
ant database including 10 videos of ants from different indoor and outdoor
scenes. We achieve a state-of-the-art performance of 95.7\% mMOTA and 81.1\%
mMOTP in indoor videos, 81.8\% mMOTA and 81.9\% mMOTP in outdoor videos.
Additionally, Our method runs 6-10 times faster than existing methods for
insect tracking. Experimental results demonstrate that our method provides a
powerful tool for accelerating the unraveling of the mechanisms underlying the
swarm behavior of social insects.
- Abstract(参考訳): 社会昆虫(アリなど)の知的な群れの行動は、異なる環境で発生し、エンボディドインテリジェンスの研究のための洞察を提供すると約束する。
群れの行動を研究するには、研究者が時間とともに個人を正確に追跡する必要がある。
もちろん、個々の昆虫をビデオに手動でラベル付けすることは、労働集約的だ。
しかし、自動追跡手法は、(1)個人は小さく、外観が似ている、(2)相互の頻繁な相互作用は、重篤かつ長期の閉塞を引き起こす。
人工知能とコンピュータビジョン技術の進歩により、我々は上記の課題に対処するために、複数の昆虫の監視を自動化するツールを提供することを期待している。
本稿では,(1)ResNet-50をバックボーンとして使用し,アリの位置を正確に決定する2段階のオブジェクト検出フレームワーク,(2)ResNetモデルを用いてアリの外観記述子を開発し,(3)長期の出現シーケンスを構築し,それらとオンライン追跡を実現するための動き情報を組み合わせた,ビデオ中のマルチアント追跡のための検出・追跡フレームワークを提案する。
本手法を検証するために,室内および屋外の異なるシーンのアリのビデオ10本を含むアリデータベースを構築した。
室内ビデオでは95.7 % mMOTA,81.1 % mMOTP,81.8 % mMOTA,81.9 % mMOTPの最先端性能を実現した。
また,従来の昆虫追跡法よりも6~10倍高速である。
実験の結果,本手法は社会昆虫の群集行動のメカニズムを解明するための強力なツールであることがわかった。
関連論文リスト
- Computer Vision for Primate Behavior Analysis in the Wild [61.08941894580172]
ビデオに基づく行動監視は、動物の認知と行動を研究する方法を変える大きな可能性を秘めている。
今でも、エキサイティングな見通しと、今日実際に達成できるものの間には、かなり大きなギャップがある。
論文 参考訳(メタデータ) (2024-01-29T18:59:56Z) - Motion Informed Object Detection of Small Insects in Time-lapse Camera
Recordings [1.3965477771846408]
タイムラプスRGB画像における昆虫検出のためのパイプラインを提案する。
モーション・インフォームド・エンハンスメント(Motion-Informed-Enhancement)技術は、動きと色を使って画像中の昆虫を強化する。
You Only Look Once (YOLO) と Faster Region-based CNN (Faster R-CNN) によるディープラーニング物体検出法の改良
論文 参考訳(メタデータ) (2022-12-01T10:54:06Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - Understandable Controller Extraction from Video Observations of Swarms [0.0]
スワムの挙動はエージェントと環境の局所的な相互作用から生じ、しばしば単純な規則として符号化される。
ビデオデモから理解可能なSwarmコントローラを自動的に抽出する手法を開発した。
論文 参考訳(メタデータ) (2022-09-02T15:28:28Z) - MABe22: A Multi-Species Multi-Task Benchmark for Learned Representations
of Behavior [28.878568752724235]
学習行動表現の質を評価するベンチマークであるMABe22を紹介する。
このデータセットは様々な生物学実験から収集される。
我々は,自己教師付きビデオとトラジェクトリ表現学習法を試行し,ベンチマークの利用を実証した。
論文 参考訳(メタデータ) (2022-07-21T15:51:30Z) - A dataset of ant colonies motion trajectories in indoor and outdoor
scenes for social cluster behavior study [13.391307807956675]
本稿では,屋内と屋外の異なるシーンから,アリのコロニーの映像を10本収集する。
全5354フレームにおいて、各アリの位置情報と識別番号を合計712のアリと114112のアノテーションに記録する。
このデータセットがアリコロニーの行動のより深い調査に寄与することが期待されている。
論文 参考訳(メタデータ) (2022-04-09T03:49:55Z) - Weakly Supervised Human-Object Interaction Detection in Video via
Contrastive Spatiotemporal Regions [81.88294320397826]
システムは、ビデオに人間と物体の相互作用が存在するか、あるいは人間と物体の実際の位置を知らない。
文節から収集した人-物間相互作用による6.5k以上のビデオからなるデータセットを提案する。
ビデオデータセットのアノテーションに適応した弱教師付きベースラインの性能向上を実証した。
論文 参考訳(メタデータ) (2021-10-07T15:30:18Z) - ASCNet: Self-supervised Video Representation Learning with
Appearance-Speed Consistency [62.38914747727636]
本研究では,1)明示的な監督のためのラベルの欠如,2)構造化されていない,ノイズの多い視覚情報による自己指導型映像表現学習について検討する。
既存の方法は、主にビデオクリップをインスタンスとしてコントラスト損失を使用し、互いにインスタンスを識別することで視覚的表現を学ぶ。
本稿では,ロバストな映像表現を学ぶ上で,正のサンプル間の一貫性が鍵となることを観察する。
論文 参考訳(メタデータ) (2021-06-04T08:44:50Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z) - FLIVVER: Fly Lobula Inspired Visual Velocity Estimation & Ranging [0.0]
小さな昆虫や昆虫サイズのロボットは、その絶対速度と近くの物体までの距離を推定することができる。
本稿では,動的前方運動の幾何学と昆虫視覚処理のインスピレーションを組み合わせた新しいアルゴリズムFLIVVERを提案する。
我々のアルゴリズムは、昆虫が絶対速度を推定する方法の明確な仮説を提供し、また効率的な状態推定のために高速アナログ回路を設計するための理論的枠組みを提供する。
論文 参考訳(メタデータ) (2020-04-10T22:35:13Z) - Human Motion Transfer from Poses in the Wild [61.6016458288803]
人間の動き伝達の問題に対処し、基準映像からの動きを模倣する対象人物のための新しい動き映像を合成する。
推定ポーズを用いて2つのドメインをブリッジするビデオ間翻訳タスクである。
トレーニング中に見つからない線内ポーズシーケンスであっても、時間的に一貫性のある高品質なビデオを生成するための新しいポーズ・ツー・ビデオ翻訳フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T05:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。