論文の概要: SeaDSC: A video-based unsupervised method for dynamic scene change
detection in unmanned surface vehicles
- arxiv url: http://arxiv.org/abs/2311.11580v1
- Date: Mon, 20 Nov 2023 07:34:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 19:42:36.951132
- Title: SeaDSC: A video-based unsupervised method for dynamic scene change
detection in unmanned surface vehicles
- Title(参考訳): SeaDSC:無人表面車両における動的シーン変化検出のためのビデオベース教師なし手法
- Authors: Linh Trinh, Ali Anwar, Siegfried Mercelis
- Abstract要約: 本稿では,無人表面車両(USV)の動的シーン変化を検出するためのアプローチについて概説する。
本研究の目的は,海中映像データのダイナミックなシーン,特に高い類似性を示すシーンに顕著な変化を見出すことである。
本研究では,動的シーン変化検出システムにおいて,教師なし学習手法を提案する。
- 参考スコア(独自算出の注目度): 3.2716252389196288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, there has been an upsurge in the research on maritime vision, where
a lot of works are influenced by the application of computer vision for
Unmanned Surface Vehicles (USVs). Various sensor modalities such as camera,
radar, and lidar have been used to perform tasks such as object detection,
segmentation, object tracking, and motion planning. A large subset of this
research is focused on the video analysis, since most of the current vessel
fleets contain the camera's onboard for various surveillance tasks. Due to the
vast abundance of the video data, video scene change detection is an initial
and crucial stage for scene understanding of USVs. This paper outlines our
approach to detect dynamic scene changes in USVs. To the best of our
understanding, this work represents the first investigation of scene change
detection in the maritime vision application. Our objective is to identify
significant changes in the dynamic scenes of maritime video data, particularly
those scenes that exhibit a high degree of resemblance. In our system for
dynamic scene change detection, we propose completely unsupervised learning
method. In contrast to earlier studies, we utilize a modified cutting-edge
generative picture model called VQ-VAE-2 to train on multiple marine datasets,
aiming to enhance the feature extraction. Next, we introduce our innovative
similarity scoring technique for directly calculating the level of similarity
in a sequence of consecutive frames by utilizing grid calculation on retrieved
features. The experiments were conducted using a nautical video dataset called
RoboWhaler to showcase the efficient performance of our technique.
- Abstract(参考訳): 近年,無人表面車両 (USV) へのコンピュータビジョンの適用によって,多くの研究が影響を受けている海洋視覚の研究が急増している。
カメラ、レーダー、ライダーなどの様々なセンサーは、物体検出、セグメンテーション、物体追跡、動き計画といったタスクを実行するために使われてきた。
この研究の大部分がビデオ分析に重点を置いており、これは現在の艦船には様々な監視任務のためにカメラが搭載されているためである。
映像データの多さから,映像シーン変化検出は,usvsのシーン理解における初期的かつ重要な段階である。
本稿では,usvsにおける動的シーン変化の検出手法について概説する。
この研究は、海洋視覚アプリケーションにおけるシーン変化の検出に関する最初の調査である。
本研究の目的は,海中映像データのダイナミックなシーン,特に高い類似性を示すシーンに顕著な変化を見出すことである。
本研究では,動的シーン変化検出システムにおいて,教師なし学習手法を提案する。
従来の研究とは対照的に、vq-vae-2と呼ばれる改良された最先端生成画像モデルを用いて、複数の海洋データセットを訓練し、特徴抽出を強化する。
次に,検索された特徴のグリッド計算を活用し,連続するフレームの類似度を直接計算する革新的な類似度スコアリング手法を提案する。
実験は、RoboWhalerという海洋ビデオデータセットを用いて実施され、我々の技術の有効性を実証した。
関連論文リスト
- TK-Planes: Tiered K-Planes with High Dimensional Feature Vectors for Dynamic UAV-based Scenes [58.180556221044235]
本研究では,無人航空機(UAV)の認識における合成と実世界の領域間ギャップを埋める新しい手法を提案する。
我々のformu-lationは、動いた物体や人間の行動からなる動的シーン用に設計されている。
我々は,Okutama ActionやUG2など,挑戦的なデータセットの性能を評価する。
論文 参考訳(メタデータ) (2024-05-04T21:55:33Z) - V-MAD: Video-based Morphing Attack Detection in Operational Scenarios [4.353138826597465]
本稿では,実運用シナリオにおけるビデオ型モーフィング攻撃検出(V-MAD)システムの可能性について紹介し,検討する。
V-MADはビデオシーケンスに基づいており、しばしば顔認証ツールによって取得されるビデオストリームを利用する。
複数のプローブフレームが利用可能であることが、モーフィング攻撃検出タスクにもたらす利点を初めて示す。
論文 参考訳(メタデータ) (2024-04-10T12:22:19Z) - SGDViT: Saliency-Guided Dynamic Vision Transformer for UAV Tracking [12.447854608181833]
本研究は、UAV追跡のための新しいサリエンシ誘導動的視覚変換器(SGDViT)を提案する。
提案手法は,クロスコリレーション操作を洗練させるために,タスク固有の新たなオブジェクト・サリエンシ・マイニング・ネットワークを設計する。
軽量な塩分フィルタリング変換器は、さらに塩分情報を洗練し、外観情報に焦点を当てる。
論文 参考訳(メタデータ) (2023-03-08T05:01:00Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - PreViTS: Contrastive Pretraining with Video Tracking Supervision [53.73237606312024]
PreViTSは、同じオブジェクトを含むクリップを選択するための教師なしSSLフレームワークである。
PreViTSはフレーム領域を空間的に制約し、モデルから学習し、意味のあるオブジェクトを見つけるように訓練する。
モーメントコントラスト(MoCo)エンコーダを,PreViTSを用いてVGG-SoundとKinetics-400データセットでトレーニングする。
論文 参考訳(メタデータ) (2021-12-01T19:49:57Z) - Multi-Object Tracking with Deep Learning Ensemble for Unmanned Aerial
System Applications [0.0]
多目的追跡(MOT)は、軍事防衛分野における状況認識の重要な構成要素である。
本稿では,リアルタイムな状況下での騒音に対応するために,頑健なオブジェクト追跡アーキテクチャを提案する。
本稿では,遅延空間における実体軌道の予測にシーケンス・ツー・シーケンス・アーキテクチャを用いる,Deep Extended Kalman Filter (DeepEKF) と呼ばれるキネマティックな予測モデルを提案する。
論文 参考訳(メタデータ) (2021-10-05T13:50:38Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。