論文の概要: DeepSea MOT: A benchmark dataset for multi-object tracking on deep-sea video
- arxiv url: http://arxiv.org/abs/2509.03499v1
- Date: Wed, 03 Sep 2025 17:30:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.612832
- Title: DeepSea MOT: A benchmark dataset for multi-object tracking on deep-sea video
- Title(参考訳): DeepSea MOT:深海ビデオのマルチオブジェクト追跡のためのベンチマークデータセット
- Authors: Kevin Barnard, Elaine Liu, Kristine Walz, Brian Schlining, Nancy Jacobsen Stout, Lonny Lundsten,
- Abstract要約: マルチオブジェクト追跡とオブジェクト検出モデルのパフォーマンスのベンチマークは、機械学習モデル開発における重要なステップである。
われわれの知る限りでは、これは深海ビデオのマルチオブジェクト追跡のための初めての公開ベンチマークだ。
- 参考スコア(独自算出の注目度): 0.07696728525672149
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Benchmarking multi-object tracking and object detection model performance is an essential step in machine learning model development, as it allows researchers to evaluate model detection and tracker performance on human-generated 'test' data, facilitating consistent comparisons between models and trackers and aiding performance optimization. In this study, a novel benchmark video dataset was developed and used to assess the performance of several Monterey Bay Aquarium Research Institute object detection models and a FathomNet single-class object detection model together with several trackers. The dataset consists of four video sequences representing midwater and benthic deep-sea habitats. Performance was evaluated using Higher Order Tracking Accuracy, a metric that balances detection, localization, and association accuracy. To the best of our knowledge, this is the first publicly available benchmark for multi-object tracking in deep-sea video footage. We provide the benchmark data, a clearly documented workflow for generating additional benchmark videos, as well as example Python notebooks for computing metrics.
- Abstract(参考訳): マルチオブジェクト追跡とオブジェクト検出モデルのパフォーマンスのベンチマークは、機械学習モデル開発における重要なステップであり、研究者は、人間が生成した「テスト」データ上でモデル検出とトラッカーのパフォーマンスを評価し、モデルとトラッカーの一貫性のある比較を容易にし、パフォーマンスの最適化を支援することができる。
本研究では,いくつかのモンテレー湾水族館のオブジェクト検出モデルとFathomNetの単一クラスオブジェクト検出モデルの性能を評価するために,新しいベンチマークビデオデータセットを開発した。
データセットは4つのビデオシーケンスからなり、中水深と深海深度を表現している。
高次追跡精度(Higher Order Tracking Accuracy)は,検出,ローカライゼーション,関連精度のバランスをとる指標である。
われわれの知る限りでは、これは深海ビデオのマルチオブジェクト追跡のための初めての公開ベンチマークだ。
ベンチマークデータ、追加のベンチマークビデオを生成するための明確なドキュメント化されたワークフロー、およびメトリクスを計算するためのPythonノートブックを提供する。
関連論文リスト
- FishDet-M: A Unified Large-Scale Benchmark for Robust Fish Detection and CLIP-Guided Model Selection in Diverse Aquatic Visual Domains [1.3791394805787949]
FishDet-Mは、様々な水生環境にまたがる13の公開データセットを含む、魚検出のための最大の統一されたベンチマークである。
すべてのデータは、境界ボックスとセグメンテーションマスクの両方を持つCOCOスタイルのアノテーションを使用して調和する。
FishDet-Mは、複雑な水シーンにおけるオブジェクト検出を評価するための標準化され再現可能なプラットフォームを確立する。
論文 参考訳(メタデータ) (2025-07-23T18:32:01Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - EvalCrafter: Benchmarking and Evaluating Large Video Generation Models [70.19437817951673]
これらのモデルはしばしば、マルチアスペクト能力を持つ非常に大きなデータセットで訓練されているので、単純な指標から大きな条件生成モデルを判断することは困難である、と我々は主張する。
我々のアプローチは、テキスト・ツー・ビデオ生成のための700のプロンプトの多種多様な包括的リストを作成することである。
そこで我々は、視覚的品質、コンテンツ品質、動作品質、テキスト・ビデオアライメントの観点から、慎重に設計されたベンチマークに基づいて、最先端のビデオ生成モデルを評価する。
論文 参考訳(メタデータ) (2023-10-17T17:50:46Z) - Staged Depthwise Correlation and Feature Fusion for Siamese Object
Tracking [0.6827423171182154]
視覚的トラッキングのための特徴抽出をさらに最適化するために,DCFFNet という新たな段階的深度相関と特徴融合ネットワークを提案する。
シアムネットワークアーキテクチャに基づいてディープトラッカーを構築しており、複数の大規模データセットでゼロからトレーニングされたオフラインです。
OTB100,VOT2018,LaSOTなど,一般的なベンチマークにトラッカーを実装した。
論文 参考訳(メタデータ) (2023-10-15T06:04:42Z) - Anchor Points: Benchmarking Models with Much Fewer Examples [88.02417913161356]
6つの人気のある言語分類ベンチマークでは、多数の点の正しいクラスに対するモデル信頼度はモデル間で強く相関している。
Anchor Point Selectionは,データセット全体にわたるモデル動作をキャプチャする,データセットの小さなサブセットを選択する手法である。
平均絶対誤差が低いデータセットの他のすべての点について、クラスごとの予測モデルを推定するために、いくつかのアンカーポイントを使用することができる。
論文 参考訳(メタデータ) (2023-09-14T17:45:51Z) - Segmenting Moving Objects via an Object-Centric Layered Representation [100.26138772664811]
深層表現を用いたオブジェクト中心セグメンテーションモデルを提案する。
複数のオブジェクトで合成トレーニングデータを生成するスケーラブルなパイプラインを導入する。
標準的なビデオセグメンテーションベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2022-07-05T17:59:43Z) - It's the Best Only When It Fits You Most: Finding Related Models for
Serving Based on Dynamic Locality Sensitive Hashing [1.581913948762905]
トレーニングデータの作成は、生産や研究のためにディープラーニングモデルをデプロイするライフサイクルにおいて、しばしばボトルネックとなる。
本稿では,対象のデータセットと利用可能なモデルのトレーニングデータセットの類似性に基づいて,関連するモデルを検索してサービスするエンド・ツー・エンドプロセスを提案する。
論文 参考訳(メタデータ) (2020-10-13T22:52:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。