論文の概要: Marine Video Kit: A New Marine Video Dataset for Content-based Analysis
and Retrieval
- arxiv url: http://arxiv.org/abs/2209.11518v1
- Date: Fri, 23 Sep 2022 10:57:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 17:33:41.421681
- Title: Marine Video Kit: A New Marine Video Dataset for Content-based Analysis
and Retrieval
- Title(参考訳): Marine Video Kit:コンテンツに基づく分析と検索のための新しい海底ビデオデータセット
- Authors: Quang-Trung Truong and Tuan-Anh Vu and Tan-Sang Ha and Lokoc Jakub and
Yue Him Wong Tim and Ajay Joneja and Sai-Kit Yeung
- Abstract要約: 本稿では,水中環境における移動カメラから撮影したワンショット映像に着目した。
新しいMarine Video Kitの最初のシャードは、ビデオ検索やその他のコンピュータビジョンの課題に役立ちます。
- 参考スコア(独自算出の注目度): 10.526705651297146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective analysis of unusual domain specific video collections represents an
important practical problem, where state-of-the-art general purpose models
still face limitations. Hence, it is desirable to design benchmark datasets
that challenge novel powerful models for specific domains with additional
constraints. It is important to remember that domain specific data may be
noisier (e.g., endoscopic or underwater videos) and often require more
experienced users for effective search. In this paper, we focus on single-shot
videos taken from moving cameras in underwater environments which constitute a
nontrivial challenge for research purposes. The first shard of a new Marine
Video Kit dataset is presented to serve for video retrieval and other computer
vision challenges. In addition to basic meta-data statistics, we present
several insights and reference graphs based on low-level features as well as
semantic annotations of selected keyframes. The analysis contains also
experiments showing limitations of respected general purpose models for
retrieval.
- Abstract(参考訳): ドメイン固有のビデオコレクションを効果的に分析することは、最先端の汎用モデルがまだ限界に直面している重要な実践的問題である。
したがって、新たな制約のある特定のドメインのための新しい強力なモデルに挑戦するベンチマークデータセットを設計することが望ましい。
ドメイン固有のデータは、よりノイズが多く(例えば、内視鏡的または水中ビデオ)、しばしば効果的な検索のためにより経験豊富なユーザーを必要とすることを忘れてはならない。
本稿では,水中の移動カメラから撮影された単発映像に着目し,研究目的の難易度を示す。
新しいMarine Video Kitデータセットの最初のシャードは、ビデオ検索やその他のコンピュータビジョンの課題に役立ちます。
基本メタデータ統計に加え、低レベルの特徴に基づくいくつかの洞察と参照グラフ、および選択したキーフレームのセマンティックアノテーションも提示する。
この分析には、検索のための一般的な汎用モデルの制限を示す実験も含まれている。
関連論文リスト
- Multi-subject Open-set Personalization in Video Generation [110.02124633005516]
我々は、マルチオブジェクトでオープンなパーソナライズ機能を備えたビデオモデルとして、Video Alchemist $-$を提示する。
本モデルは,各条件付き参照画像と対応する主観レベルテキストプロンプトを融合するDiffusion Transformerモジュール上に構築されている。
本手法は,定量評価と定性評価の両方において,既存のパーソナライズ手法を著しく上回っている。
論文 参考訳(メタデータ) (2025-01-10T18:59:54Z) - Scaling Up Video Summarization Pretraining with Large Language Models [73.74662411006426]
本稿では,大規模ビデオ要約データセットを生成するための,自動化されたスケーラブルなパイプラインを提案する。
我々は既存のアプローチの限界を分析し、それらに効果的に対処する新しいビデオ要約モデルを提案する。
我々の研究は、プロが注釈付けした高品質の要約を持つ1200本の長編ビデオを含む新しいベンチマークデータセットも提示した。
論文 参考訳(メタデータ) (2024-04-04T11:59:06Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - FODVid: Flow-guided Object Discovery in Videos [12.792602427704395]
我々は、個々の複雑さに過度に適合しないように、一般化可能なソリューションを構築することに注力する。
教師なしの環境でビデオオブジェクト(VOS)を解決するために,セグメント出力の導出に基づく新しいパイプライン(FODVid)を提案する。
論文 参考訳(メタデータ) (2023-07-10T07:55:42Z) - A Survey on Deep Learning Technique for Video Segmentation [147.0767454918527]
ビデオセグメンテーションは幅広い応用において重要な役割を果たしている。
ディープラーニングベースのアプローチは、ビデオセグメンテーションに特化しており、魅力的なパフォーマンスを提供している。
論文 参考訳(メタデータ) (2021-07-02T15:51:07Z) - Highlight Timestamp Detection Model for Comedy Videos via Multimodal
Sentiment Analysis [1.6181085766811525]
本研究では,この分野での最先端性能を得るためのマルチモーダル構造を提案する。
マルチモーダルビデオ理解のためのベンチマークをいくつか選択し、最適な性能を求めるのに最適なモデルを適用した。
論文 参考訳(メタデータ) (2021-05-28T08:39:19Z) - Coherent Loss: A Generic Framework for Stable Video Segmentation [103.78087255807482]
ビデオセグメンテーションの結果の視覚的品質を,ジッタリングアーティファクトがいかに劣化させるかを検討する。
本稿では,ニューラルネットワークの性能向上を目的とした汎用フレームワークを備えたコヒーレントロスを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:48:28Z) - Fine-Grained Instance-Level Sketch-Based Video Retrieval [159.12935292432743]
細粒度インスタンスレベルのスケッチベースビデオ検索(FG-SBVR)の新しいクロスモーダル検索問題を提案する。
スケッチベースの静止画像検索や粗いカテゴリレベルのビデオ検索と比較すると、視覚的外観と動きの両方を微粒なレベルで同時にマッチングする必要があるため、これはより困難である。
このモデルは,映像解析用に設計された既存の最先端モデルよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2020-02-21T18:28:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。