論文の概要: The Caltech Fish Counting Dataset: A Benchmark for Multiple-Object
Tracking and Counting
- arxiv url: http://arxiv.org/abs/2207.09295v1
- Date: Tue, 19 Jul 2022 14:26:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 13:26:45.166682
- Title: The Caltech Fish Counting Dataset: A Benchmark for Multiple-Object
Tracking and Counting
- Title(参考訳): Caltech Fish Counting Dataset: マルチオブジェクト追跡とカウントのためのベンチマーク
- Authors: Justin Kay, Peter Kulits, Suzanne Stathatos, Siqi Deng, Erik Young,
Sara Beery, Grant Van Horn, Pietro Perona
- Abstract要約: Caltech Fish Countingデータセットは、ソナービデオ中の魚を検出し、追跡し、カウントするための大規模なデータセットである。
CFCは、ターゲットが容易に解決できない自然界のドメインから派生している。
CFCは、MOTをトレーニングし、アルゴリズムをカウントし、未知のテスト場所での一般化性能を評価することができる。
- 参考スコア(独自算出の注目度): 17.846166161707586
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the Caltech Fish Counting Dataset (CFC), a large-scale dataset for
detecting, tracking, and counting fish in sonar videos. We identify sonar
videos as a rich source of data for advancing low signal-to-noise computer
vision applications and tackling domain generalization in multiple-object
tracking (MOT) and counting. In comparison to existing MOT and counting
datasets, which are largely restricted to videos of people and vehicles in
cities, CFC is sourced from a natural-world domain where targets are not easily
resolvable and appearance features cannot be easily leveraged for target
re-identification. With over half a million annotations in over 1,500 videos
sourced from seven different sonar cameras, CFC allows researchers to train MOT
and counting algorithms and evaluate generalization performance at unseen test
locations. We perform extensive baseline experiments and identify key
challenges and opportunities for advancing the state of the art in
generalization in MOT and counting.
- Abstract(参考訳): CFC(Caltech Fish Counting Dataset)は、ソナービデオ中の魚を検出し、追跡し、カウントするための大規模なデータセットである。
我々は、低信号対雑音コンピュータビジョンアプリケーションやマルチオブジェクトトラッキング(mot)とカウントにおける領域一般化に取り組むためのリッチなデータソースとしてソナービデオを特定した。
都市内の人々や車両のビデオに大きく制限されている既存のMOTやカウントデータセットと比較して、CFCは、ターゲットが容易に解決できず、外観の特徴が容易にターゲットの再識別に活用できない自然界のドメインから派生している。
7つのsonarカメラから150万以上のビデオに50万以上のアノテーションが組み込まれており、cfcはmotとカウントアルゴリズムを訓練し、未発見のテスト場所での一般化性能を評価することができる。
我々は大規模なベースライン実験を行い、MOTの一般化と計数において、最先端技術への挑戦と機会を特定する。
関連論文リスト
- WebUOT-1M: Advancing Deep Underwater Object Tracking with A Million-Scale Benchmark [41.627959017482155]
WebUOT-1Mは、複雑で現実的な水中環境から得られた、これまでで最大のUOTベンチマークである。
408のターゲットカテゴリからフィルタリングされた1500のビデオクリップに11万のフレームがあり、そのほとんどが以前のUTTデータセットを上回っている。
WebUOT-1Mには、ビデオシーケンスのための言語プロンプトが含まれており、アプリケーション領域を拡大している。
論文 参考訳(メタデータ) (2024-05-30T08:25:21Z) - Multi-Object Tracking by Iteratively Associating Detections with Uniform
Appearance for Trawl-Based Fishing Bycatch Monitoring [22.228127377617028]
漁業活動における漁獲監視の目的は、映像から魚の標的をリアルタイムで検出し、追跡し、分類することである。
本稿では,既存の観測中心追跡アルゴリズムに基づく新しいMOT手法を提案する。
本手法は,海洋魚種群およびMOT17種群において,一様外観の追跡目標の性能向上と最先端技術の向上を図っている。
論文 参考訳(メタデータ) (2023-04-10T18:55:10Z) - A Dataset with Multibeam Forward-Looking Sonar for Underwater Object
Detection [0.0]
マルチビーム前方ソナー (MFLS) は水中検出において重要な役割を担っている。
MFLSを用いた水中物体検出の研究にはいくつかの課題がある。
本稿では,Tritech Gemini 1200ikソナーを用いて,9000枚以上のMFLS画像からなる新しいデータセットを提案する。
論文 参考訳(メタデータ) (2022-12-01T08:26:03Z) - Unifying Tracking and Image-Video Object Detection [54.91658924277527]
TrIVD (Tracking and Image-Video Detection) は、画像OD、ビデオOD、MOTを1つのエンドツーエンドモデルに統合する最初のフレームワークである。
カテゴリラベルの相違やセマンティックな重複に対処するため、TrIVDは対象カテゴリに対する検出/追跡を基礎と理由として定式化している。
論文 参考訳(メタデータ) (2022-11-20T20:30:28Z) - Visible-Thermal UAV Tracking: A Large-Scale Benchmark and New Baseline [80.13652104204691]
本稿では,可視熱UAV追跡(VTUAV)のための高多様性の大規模ベンチマークを構築する。
本稿では, フレームレベルの属性を, チャレンジ固有のトラッカーの可能性を利用するための粗粒度属性アノテーションを提案する。
さらに,様々なレベルでRGB-Tデータを融合するHMFT(Hierarchical Multi-modal Fusion Tracker)という新しいRGB-Tベースラインを設計する。
論文 参考訳(メタデータ) (2022-04-08T15:22:33Z) - FathomNet: A global underwater image training set for enabling
artificial intelligence in the ocean [0.0]
オーシャンゴープラットフォームは、監視とナビゲーションのために高解像度のカメラフィードを統合することで、視覚データを大量に生成している。
機械学習の最近の進歩は、視覚データの高速かつ洗練された分析を可能にするが、海洋学の世界では成功しなかった。
FathomNetのデータに基づいてトレーニングされた機械学習モデルを、さまざまな機関のビデオデータに適用する方法を実証する。
論文 参考訳(メタデータ) (2021-09-29T18:08:42Z) - ASOD60K: Audio-Induced Salient Object Detection in Panoramic Videos [79.05486554647918]
本研究では,パノラマビデオから有能な物体を分離する新しいタスクであるPV-SODを提案する。
既存の固定レベルやオブジェクトレベルの塩分濃度検出タスクとは対照的に,多モードの塩分濃度検出(SOD)に焦点を当てる。
AsOD60Kという,6レベル階層の4K解像度ビデオフレームを含む,最初の大規模データセットを収集する。
論文 参考訳(メタデータ) (2021-07-24T15:14:20Z) - Concealed Object Detection [140.98738087261887]
隠蔽物体検出(COD)に関する最初の体系的研究を紹介します。
CODは、背景に「完全に」埋め込まれているオブジェクトを特定することを目指しています。
このタスクをより理解するために、cod10kと呼ばれる大規模なデータセットを収集します。
論文 参考訳(メタデータ) (2021-02-20T06:49:53Z) - Tracking-by-Counting: Using Network Flows on Crowd Density Maps for
Tracking Multiple Targets [96.98888948518815]
State-of-the-art multi-object tracking(MOT)法は、トラッキング・バイ・検出のパラダイムに従っている。
混み合ったシーンに適したMOTパラダイムであるトラッキング・バイ・カウントを提案する。
論文 参考訳(メタデータ) (2020-07-18T19:51:53Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。