論文の概要: Rip Current Segmentation: A Novel Benchmark and YOLOv8 Baseline Results
- arxiv url: http://arxiv.org/abs/2504.02558v1
- Date: Thu, 03 Apr 2025 13:14:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:57:58.398144
- Title: Rip Current Segmentation: A Novel Benchmark and YOLOv8 Baseline Results
- Title(参考訳): Rip Current Segmentation: 新しいベンチマークとYOLOv8のベースライン結果
- Authors: Andrei Dumitriu, Florin Tatui, Florin Miron, Radu Tudor Ionescu, Radu Timofte,
- Abstract要約: リップ電流は、世界中の多くのビーチで致命的な事故や怪我の原因となっている。
新たに作成された多角形アノテーションを例として,2,466ドルの画像を含む包括的データセットを提案する。
約2,400ドル(約2,800円)のドローンビデオからなる新しいデータセットを30FPS$で取得し,インスタンスセグメンテーション用のポリゴンとオブジェクト検出用のバウンディングボックスの両方でアノテートする。
- 参考スコア(独自算出の注目度): 60.656120527353096
- License:
- Abstract: Rip currents are the leading cause of fatal accidents and injuries on many beaches worldwide, emphasizing the importance of automatically detecting these hazardous surface water currents. In this paper, we address a novel task: rip current instance segmentation. We introduce a comprehensive dataset containing $2,466$ images with newly created polygonal annotations for instance segmentation, used for training and validation. Additionally, we present a novel dataset comprising $17$ drone videos (comprising about $24K$ frames) captured at $30 FPS$, annotated with both polygons for instance segmentation and bounding boxes for object detection, employed for testing purposes. We train various versions of YOLOv8 for instance segmentation on static images and assess their performance on the test dataset (videos). The best results were achieved by the YOLOv8-nano model (runnable on a portable device), with an mAP50 of $88.94%$ on the validation dataset and $81.21%$ macro average on the test dataset. The results provide a baseline for future research in rip current segmentation. Our work contributes to the existing literature by introducing a detailed, annotated dataset, and training a deep learning model for instance segmentation of rip currents. The code, training details and the annotated dataset are made publicly available at https://github.com/Irikos/rip_currents.
- Abstract(参考訳): リップ電流は世界中の多くのビーチで致命的な事故や怪我の原因となり、これらの危険な表面水流を自動的に検出することの重要性を強調している。
本稿では,新しいタスクであるリッピングカレントインスタンスセグメンテーションについて述べる。
本稿では,2,466ドルの画像を含む包括的データセットについて紹介する。
さらに、30FPS$でキャプチャされた17ドル(約2,400ドル)のドローンビデオからなる新しいデータセットを、テスト目的で使用される、オブジェクト検出のためのインスタンスセグメンテーションとバウンディングボックスの両方で注釈付けする。
静的イメージのインスタンスセグメンテーションのためのYOLOv8のさまざまなバージョンをトレーニングし、テストデータセット(ビデオ)のパフォーマンスを評価します。
最高の結果はYOLOv8-nanoモデル(ポータブルデバイス上で動作可能)によって達成され、mAP50は検証データセットで8.94%、テストデータセットで81.21%のマクロ平均で達成された。
この結果は、リップ電流セグメンテーションの今後の研究のベースラインとなる。
我々の研究は、詳細な注釈付きデータセットを導入し、例えばリップ電流のセグメンテーションのためのディープラーニングモデルをトレーニングすることで、既存の文献に寄与する。
コード、トレーニングの詳細、アノテーション付きデータセットはhttps://github.com/Irikos/rip_currentsで公開されている。
関連論文リスト
- Robot Instance Segmentation with Few Annotations for Grasping [10.005879464111915]
セミスーパーバイザードラーニング(SSL)とラーニング・スルー・インタラクション(LTI)を組み合わせた新しいフレームワークを提案する。
提案手法は,自己スーパービジョンによる注釈付きデータを利用して,ラベルのない静止画像から生成された擬似シーケンスを用いて時間的コンテキストを組み込む。
本手法をARMBenchmix-object-toteとOCIDの2つのベンチマークで検証し,最先端性能を実現する。
論文 参考訳(メタデータ) (2024-07-01T13:58:32Z) - Localization Is All You Evaluate: Data Leakage in Online Mapping Datasets and How to Fix It [2.1665407462280446]
State-of-the-artメソッドは主にnuScenesとArgoverse 2データセットを使用してトレーニングされている。
nuScenesの80ドル以上、Argoverse 2のバリデーションとテストサンプルの40ドル以上は、トレーニングサンプルから5ドル以下である。
本研究では,地理的に不連続なデータ分割を提案し,未知の環境における真の性能を明らかにする。
論文 参考訳(メタデータ) (2023-12-11T14:43:23Z) - A High-Resolution Dataset for Instance Detection with Multi-View
Instance Capture [15.298790238028356]
インスタンス検出(InsDet)は、ロボット工学とコンピュータビジョンにおける長期的な問題である。
現在のInsDetは、今日の標準ではスケールが小さすぎる。
InsDetの新しいデータセットとプロトコルを導入します。
論文 参考訳(メタデータ) (2023-10-30T03:58:41Z) - Learning Cross-Modal Affinity for Referring Video Object Segmentation
Targeting Limited Samples [61.66967790884943]
ビデオオブジェクトセグメンテーション(RVOS)の参照は、所定のシーンに十分なデータに依存する。
より現実的なシナリオでは、新しいシーンで利用できるのは最小限のアノテーションだけです。
トランスフォーマーアーキテクチャに基づいた,新たに設計したクロスモーダル親和性(CMA)モジュールを用いたモデルを提案する。
CMAモジュールは、いくつかのサンプルでマルチモーダル親和性を構築し、新しいセマンティック情報を素早く学習し、モデルが異なるシナリオに適応できるようにする。
論文 参考訳(メタデータ) (2023-09-05T08:34:23Z) - A Benchmark of Long-tailed Instance Segmentation with Noisy Labels [14.977028531774945]
本稿では,ラベルノイズを含む長い尾を持つデータセットのインスタンスセグメンテーションタスクについて考察する。
本稿では,ラベルノイズを含む大語彙長尾データセットである新しいデータセットを提案する。
その結果、トレーニングデータセットのノイズは希少なカテゴリーの学習においてモデルを阻害し、全体的な性能を低下させることが示された。
論文 参考訳(メタデータ) (2022-11-24T06:34:29Z) - BigDatasetGAN: Synthesizing ImageNet with Pixel-wise Annotations [89.42397034542189]
我々は,GAN(Generative Adversarial Network)を介して,大規模ラベル付きデータセットを合成する。
我々は、ImageNetで訓練されたクラス条件生成モデルBigGANの画像サンプルを、すべての1kクラスに対して、クラス毎の5つのイメージを手動でアノテートする。
我々は、追加の8k実画像のセットをラベル付けして、新しいImageNetベンチマークを作成し、様々な設定でセグメンテーション性能を評価する。
論文 参考訳(メタデータ) (2022-01-12T20:28:34Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - INSTA-YOLO: Real-Time Instance Segmentation [2.726684740197893]
Insta-YOLOは,リアルタイムインスタンス分割のための一段階のエンドツーエンドディープラーニングモデルである。
提案モデルはYOLOワンショットオブジェクト検出器にインスパイアされ,ボックス回帰損失はローカライゼーションヘッドの回帰に置き換わる。
当社のモデルは,Carnva,Cityscapes,Airbusの3つのデータセットで評価する。
論文 参考訳(メタデータ) (2021-02-12T21:17:29Z) - The Devil is in Classification: A Simple Framework for Long-tail Object
Detection and Instance Segmentation [93.17367076148348]
本稿では,最新のロングテールLVISデータセットを用いて,最先端の2段階のインスタンスセグメンテーションモデルMask R-CNNの性能低下について検討する。
主な原因は、オブジェクト提案の不正確な分類である。
そこで本研究では,2段階のクラスバランスサンプリング手法により,分類ヘッドバイアスをより効果的に緩和する,簡単な校正フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T12:49:07Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。