論文の概要: Automatic Individual Identification of Patterned Solitary Species Based
on Unlabeled Video Data
- arxiv url: http://arxiv.org/abs/2304.09657v1
- Date: Wed, 19 Apr 2023 13:46:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 14:12:19.238468
- Title: Automatic Individual Identification of Patterned Solitary Species Based
on Unlabeled Video Data
- Title(参考訳): ラベルなしビデオデータに基づくパターン付き孤立種の自動識別
- Authors: Vanessa Suessle, Mimi Arandjelovic, Ammie K. Kalan, Anthony Agbor,
Christophe Boesch, Gregory Brazzola, Tobias Deschner, Paula Dieguez,
Anne-C\'eline Granjon, Hjalmar Kuehl, Anja Landsmann, Juan Lapuente, Nuria
Maldonado, Amelia Meier, Zuzana Rockaiova, Erin G. Wessling, Roman M. Wittig,
Colleen T. Downs, Andreas Weinmann, Elke Hergenroether
- Abstract要約: 手動操作を必要とせずに、カメラトラップからビデオを分析し、個人を特定するパイプラインを開発した。
このパイプラインは、ヒョウ(Panthera pardus)のような一意に識別可能な毛皮パターンと孤独な行動を持つ動物種に適用される。
パイプラインはPan African Programme: The Cultured Chimpanzee (PanAf)によって収集されたヒョウのビデオのデータセットでテストされた。
- 参考スコア(独自算出の注目度): 7.667274758235099
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The manual processing and analysis of videos from camera traps is
time-consuming and includes several steps, ranging from the filtering of
falsely triggered footage to identifying and re-identifying individuals. In
this study, we developed a pipeline to automatically analyze videos from camera
traps to identify individuals without requiring manual interaction. This
pipeline applies to animal species with uniquely identifiable fur patterns and
solitary behavior, such as leopards (Panthera pardus). We assumed that the same
individual was seen throughout one triggered video sequence. With this
assumption, multiple images could be assigned to an individual for the initial
database filling without pre-labeling. The pipeline was based on
well-established components from computer vision and deep learning,
particularly convolutional neural networks (CNNs) and scale-invariant feature
transform (SIFT) features. We augmented this basis by implementing additional
components to substitute otherwise required human interactions. Based on the
similarity between frames from the video material, clusters were formed that
represented individuals bypassing the open set problem of the unknown total
population. The pipeline was tested on a dataset of leopard videos collected by
the Pan African Programme: The Cultured Chimpanzee (PanAf) and achieved a
success rate of over 83% for correct matches between previously unknown
individuals. The proposed pipeline can become a valuable tool for future
conservation projects based on camera trap data, reducing the work of manual
analysis for individual identification, when labeled data is unavailable.
- Abstract(参考訳): カメラトラップからの動画の手動処理と分析は時間がかかり、偽のトリガ映像のフィルタリングから個人を識別し再識別する段階まで、いくつかの段階を含む。
本研究では,手動操作を必要とせずに,カメラトラップからの映像を自動的に分析して個人を特定するパイプラインを開発した。
このパイプラインはヒョウ(panthera pardus)のような独特な毛皮のパターンと単独の行動を持つ動物種に適用される。
我々は、同じ人物が1つのトリガビデオシーケンスを通して見られたと仮定した。
この仮定では、事前にラベル付けすることなく、初期データベースのフィリングのために複数のイメージを個人に割り当てることができる。
このパイプラインは、コンピュータビジョンとディープラーニング、特に畳み込みニューラルネットワーク(CNN)とスケール不変機能変換(SIFT)の機能から確立されたコンポーネントに基づいている。
必要な人的相互作用を置き換えるために追加のコンポーネントを実装することで、この基盤を拡張しました。
ビデオ素材のフレーム間の類似性に基づき,未知の総人口のオープンセット問題を回避した個人を表すクラスタが形成された。
パイプラインはPan African Programme: The Cultured Chimpanzee (PanAf)によって収集されたヒョウのビデオのデータセットでテストされ、これまで知らなかった個人間の正確なマッチングで83%以上の成功率を達成した。
提案するパイプラインは,カメラトラップデータに基づく将来の保全プロジェクトにおいて有用なツールとなり,ラベル付きデータが利用できない場合の個人識別のための手作業の作業を削減することができる。
関連論文リスト
- BaboonLand Dataset: Tracking Primates in the Wild and Automating Behaviour Recognition from Drone Videos [0.8074955699721389]
本研究では,バブーン検出,追跡,行動認識のための,ドローンビデオからの新たなデータセットを提案する。
Baboon検出データセットは、ドローンビデオにすべてのbaboonをバウンディングボックスで手動でアノテートすることで作成されている。
行動認識データセットは、各動物を中心としたビデオサブリージョンであるミニシーンにトラックを変換することで生成される。
論文 参考訳(メタデータ) (2024-05-27T23:09:37Z) - CinePile: A Long Video Question Answering Dataset and Benchmark [55.30860239555001]
我々は、CinePileという新しいデータセットとベンチマークを提示する。
包括的データセットは305,000の多重選択質問(MCQ)から構成されており、様々な視覚的・マルチモーダル的な側面をカバーしている。
トレーニングスプリットに関して、オープンソースのVideo-LLMを微調整し、データセットのテストスプリット上で、オープンソースとプロプライエタリなビデオ中心LLMの両方を評価しました。
論文 参考訳(メタデータ) (2024-05-14T17:59:02Z) - ID-Animator: Zero-Shot Identity-Preserving Human Video Generation [16.438935466843304]
ID-アニメーター(ID-Animator)は、単一の参照顔画像からパーソナライズされたビデオを生成する、ゼロショットのヒューマンビデオ生成アプローチである。
本手法は,アニメーションフや各種コミュニティバックボーンモデルのような,トレーニング済みのT2Vモデルと互換性が高い。
論文 参考訳(メタデータ) (2024-04-23T17:59:43Z) - MBW: Multi-view Bootstrapping in the Wild [30.038254895713276]
微細な検出器を訓練するマルチカメラシステムは、そのようなエラーを検出することを約束している。
このアプローチは、キャリブレーションされたカメラと厳密な幾何学に基づいており、現実のシナリオでは高価で、管理が難しく、実用的ではない。
本稿では,高忠実度ランドマーク推定値を得るために,非剛性3次元ニューラルネットワークと深部流れを組み合わせることで,これらのボトルネックに対処する。
既存の手法では不可能な3D再構成とともに、最先端の完全教師付き手法に匹敵する2D結果を生成することができる。
論文 参考訳(メタデータ) (2022-10-04T16:27:54Z) - TubeFormer-DeepLab: Video Mask Transformer [98.47947102154217]
本研究では,複数のコアビデオセグメンテーションタスクを統一的に処理するための最初の試みであるTubeFormer-DeepLabを紹介する。
TubeFormer-DeepLabは、タスク固有のラベルでビデオチューブを直接予測する。
論文 参考訳(メタデータ) (2022-05-30T18:10:33Z) - Keypoint Message Passing for Video-based Person Re-Identification [106.41022426556776]
ビデオベースの人物再識別(re-ID)は、異なるカメラで捉えた人々のビデオスニペットをマッチングすることを目的とした、視覚監視システムにおいて重要な技術である。
既存の手法は主に畳み込みニューラルネットワーク(CNN)に基づいており、そのビルディングブロックは近隣のピクセルを一度に処理するか、あるいは3D畳み込みが時間情報のモデル化に使用される場合、人の動きによって生じるミスアライメントの問題に悩まされる。
本稿では,人間指向グラフ法を用いて,通常の畳み込みの限界を克服することを提案する。具体的には,人手指のキーポイントに位置する特徴を抽出し,時空間グラフとして接続する。
論文 参考訳(メタデータ) (2021-11-16T08:01:16Z) - The iWildCam 2021 Competition Dataset [5.612688040565423]
生態学者は、世界中の動物集団を監視するためにカメラトラップを使用します。
種の豊富さを推定するには、生態学者はどの種が見られたかだけでなく、各種の個体数を知る必要がある。
トレーニングデータとテストデータが、さまざまなカメラから世界中に分散している課題を準備しました。
論文 参考訳(メタデータ) (2021-05-07T20:27:22Z) - Intra-Inter Camera Similarity for Unsupervised Person Re-Identification [50.85048976506701]
擬似ラベル生成のための新しいカメラ内類似性について検討する。
re-idモデルをカメラ内およびカメラ間擬似ラベルを用いて2段階訓練した。
この単純なinter-inter cameraの類似性は、複数のデータセットで驚くほど優れたパフォーマンスを生み出す。
論文 参考訳(メタデータ) (2021-03-22T08:29:04Z) - Red Carpet to Fight Club: Partially-supervised Domain Transfer for Face
Recognition in Violent Videos [12.534785814117065]
種々の有害条件下でのクロスドメイン認識を研究するために,WildestFacesデータセットを導入した。
我々は、このクリーンで暴力的な認識タスクのための厳密な評価プロトコルを確立し、提案したデータセットと方法の詳細な分析を示す。
論文 参考訳(メタデータ) (2020-09-16T09:45:33Z) - Learning Person Re-identification Models from Videos with Weak
Supervision [53.53606308822736]
本稿では、監督の弱いビデオから人物再識別モデルを学ぶ問題について紹介する。
このようなビデオレベルラベルを用いた人物再識別のための多段階注意学習フレームワークを提案する。
注意重みは、ビデオ中の人物追跡レットではなく、すべての人物画像に基づいて得られるため、学習したモデルはノイズの多いアノテーションの影響を受けにくくなる。
論文 参考訳(メタデータ) (2020-07-21T07:23:32Z) - Labelling unlabelled videos from scratch with multi-modal
self-supervision [82.60652426371936]
ビデオデータセットの教師なしラベリングは、強力な機能エンコーダから解放されない。
人間のアノテーションを使わずにビデオデータセットの擬似ラベリングを可能にする新しいクラスタリング手法を提案する。
広範囲な分析により、結果として得られたクラスタは、真理の人間ラベルと高いセマンティックオーバーラップがあることが示されている。
論文 参考訳(メタデータ) (2020-06-24T12:28:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。