論文の概要: Uncovering Anomalous Events for Marine Environmental Monitoring via Visual Anomaly Detection
- arxiv url: http://arxiv.org/abs/2510.10750v1
- Date: Sun, 12 Oct 2025 18:39:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.093477
- Title: Uncovering Anomalous Events for Marine Environmental Monitoring via Visual Anomaly Detection
- Title(参考訳): 視覚異常検出による海洋環境モニタリングにおける異常事象の発見
- Authors: Laura Weihl, Nejc Novak, Stefan H. Bengtson, Malte Pedersen,
- Abstract要約: 水中視覚異常検出(VAD)のための最初のマルチアノテータベンチマークデータセットであるAURAを紹介する。
2つの海洋シーンにわたる4つのVADモデルを評価し、意味のあるビデオセグメントを抽出するための堅牢なフレーム選択戦略の重要性を示した。
本研究は,ソフトラベルとコンセンサスラベルの価値を強調し,科学的探索とスケーラブルな生物多様性モニタリングを支援するための実践的アプローチを提供する。
- 参考スコア(独自算出の注目度): 2.257416403770908
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater video monitoring is a promising strategy for assessing marine biodiversity, but the vast volume of uneventful footage makes manual inspection highly impractical. In this work, we explore the use of visual anomaly detection (VAD) based on deep neural networks to automatically identify interesting or anomalous events. We introduce AURA, the first multi-annotator benchmark dataset for underwater VAD, and evaluate four VAD models across two marine scenes. We demonstrate the importance of robust frame selection strategies to extract meaningful video segments. Our comparison against multiple annotators reveals that VAD performance of current models varies dramatically and is highly sensitive to both the amount of training data and the variability in visual content that defines "normal" scenes. Our results highlight the value of soft and consensus labels and offer a practical approach for supporting scientific exploration and scalable biodiversity monitoring.
- Abstract(参考訳): 水中ビデオ監視は海洋生物多様性を評価するための有望な戦略だが、大量の不確実な映像が手動による検査を極めて非現実的にしている。
本研究では、深層ニューラルネットワークに基づく視覚異常検出(VAD)を用いて、興味深い事象や異常事象を自動的に識別する方法について検討する。
AURAは水中VADのための最初のマルチアノテータベンチマークデータセットであり、2つの海洋シーンにまたがる4つのVADモデルを評価する。
我々は、意味のあるビデオセグメントを抽出する堅牢なフレーム選択戦略の重要性を実証する。
複数アノテータとの比較により,現在のモデルの性能は劇的に変化し,トレーニングデータの量と「通常」シーンを定義する視覚的内容の変動に非常に敏感であることがわかった。
本研究は,ソフトラベルとコンセンサスラベルの価値を強調し,科学的探索とスケーラブルな生物多様性モニタリングを支援するための実践的アプローチを提供する。
関連論文リスト
- Neptune-X: Active X-to-Maritime Generation for Universal Maritime Object Detection [54.1960918379255]
Neptune-Xは、海洋オブジェクト検出のためのデータ中心の生成-選択フレームワークである。
X-to-Maritime(X-to-Maritime)は、多様で現実的な海洋シーンを合成する多モード条件生成モデルである。
提案手法は,海上シーン合成における新しいベンチマークを設定し,検出精度を大幅に向上させる。
論文 参考訳(メタデータ) (2025-09-25T04:59:02Z) - FishDet-M: A Unified Large-Scale Benchmark for Robust Fish Detection and CLIP-Guided Model Selection in Diverse Aquatic Visual Domains [1.3791394805787949]
FishDet-Mは、様々な水生環境にまたがる13の公開データセットを含む、魚検出のための最大の統一されたベンチマークである。
すべてのデータは、境界ボックスとセグメンテーションマスクの両方を持つCOCOスタイルのアノテーションを使用して調和する。
FishDet-Mは、複雑な水シーンにおけるオブジェクト検出を評価するための標準化され再現可能なプラットフォームを確立する。
論文 参考訳(メタデータ) (2025-07-23T18:32:01Z) - UVLM: Benchmarking Video Language Model for Underwater World Understanding [11.475921633970977]
水中ビデオ観測のためのベンチマークであるUVLMを紹介する。
データセットには419種類の海洋動物と 様々な静的植物と地形が含まれています
2つの代表的なVidLMの実験により、UVLM上の微調整のVidLMは水中での世界の理解を著しく改善することが示された。
論文 参考訳(メタデータ) (2025-07-03T07:08:38Z) - From Sight to Insight: Unleashing Eye-Tracking in Weakly Supervised Video Salient Object Detection [60.11169426478452]
本稿では,弱い監督下での健全な物体の検出を支援するために,固定情報を導入することを目的とする。
特徴学習過程における位置と意味のガイダンスを提供するために,位置と意味の埋め込み (PSE) モジュールを提案する。
Intra-Inter Mixed Contrastive (MCII)モデルは、弱い監督下での時間的モデリング能力を改善する。
論文 参考訳(メタデータ) (2025-06-30T05:01:40Z) - Inland Waterway Object Detection in Multi-environment: Dataset and Approach [12.00732943849236]
本稿では,多環境インランド・ウォーターウェイ・ベッセル・データセット(MEIWVD)を紹介する。
MEIWVDは、晴れ、雨、霧、人工照明など様々なシナリオから32,478枚の高品質な画像で構成されている。
本稿では,環境条件に応じた水面画像改善のためのシーン誘導画像強調モジュールを提案する。
論文 参考訳(メタデータ) (2025-04-07T08:45:00Z) - Image-Based Relocalization and Alignment for Long-Term Monitoring of Dynamic Underwater Environments [57.59857784298534]
本稿では,視覚的位置認識(VPR),特徴マッチング,画像分割を組み合わせた統合パイプラインを提案する。
本手法は, 再検討領域のロバスト同定, 剛性変換の推定, 生態系変化の下流解析を可能にする。
論文 参考訳(メタデータ) (2025-03-06T05:13:19Z) - Multi-Domain Features Guided Supervised Contrastive Learning for Radar Target Detection [8.706031869122917]
既存のソリューションは、統計的および深い特徴を含む、クラッタとターゲットのエコー差に基づいて、検出またはターゲットの特徴を抽出するための海溝モデルである。
本稿では,教師付きコントラスト学習(MDFG_SCL)手法を提案する。
実世界のデータセットで行った実験では、提案された浅海深度検出器は、小さな海洋目標を効果的に識別するだけでなく、様々な海洋環境において優れた検出性能を維持することが示されている。
論文 参考訳(メタデータ) (2024-12-17T07:33:07Z) - VANE-Bench: Video Anomaly Evaluation Benchmark for Conversational LMMs [64.60035916955837]
VANE-Benchはビデオの異常や矛盾を検出するためのビデオLMMの熟練度を評価するために設計されたベンチマークである。
我々のデータセットは、既存の最先端のテキスト・ビデオ生成モデルを用いて合成された一連のビデオから構成される。
我々は、このベンチマークタスクにおいて、オープンソースとクローズドソースの両方で既存の9つのビデオLMMを評価し、ほとんどのモデルが微妙な異常を効果的に識別するのに困難に直面することを発見した。
論文 参考訳(メタデータ) (2024-06-14T17:59:01Z) - SeaDSC: A video-based unsupervised method for dynamic scene change
detection in unmanned surface vehicles [3.2716252389196288]
本稿では,無人表面車両(USV)の動的シーン変化を検出するためのアプローチについて概説する。
本研究の目的は,海中映像データのダイナミックなシーン,特に高い類似性を示すシーンに顕著な変化を見出すことである。
本研究では,動的シーン変化検出システムにおいて,教師なし学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T07:34:01Z) - Depth Guided Adaptive Meta-Fusion Network for Few-shot Video Recognition [86.31412529187243]
わずかにラベル付きサンプルで新しいアクションを学習することを目的としたビデオ認識はほとんどない。
本稿では,AMeFu-Netと呼ばれる映像認識のための深度誘導型適応メタフュージョンネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T03:06:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。