論文の概要: LaRS: A Diverse Panoptic Maritime Obstacle Detection Dataset and
Benchmark
- arxiv url: http://arxiv.org/abs/2308.09618v1
- Date: Fri, 18 Aug 2023 15:21:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 12:36:33.373004
- Title: LaRS: A Diverse Panoptic Maritime Obstacle Detection Dataset and
Benchmark
- Title(参考訳): LaRS: 異種海洋障害物検出データセットとベンチマーク
- Authors: Lojze \v{Z}ust, Janez Per\v{s}, Matej Kristan
- Abstract要約: 我々は,湖沼,河川,海のシーンを特徴とする,最初の海洋パノビュータ障害物検出ベンチマークLaRSを提示する。
LaRSは1ピクセルあたり4000以上のラベル付きキーフレームと9つの前のフレームで構成され、時間的テクスチャの利用を可能にしている。
本稿では,27のセマンティック・パノプティック・セグメンテーション手法と,いくつかのパフォーマンスインサイトと今後の研究方向性について報告する。
- 参考スコア(独自算出の注目度): 9.864996020621701
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The progress in maritime obstacle detection is hindered by the lack of a
diverse dataset that adequately captures the complexity of general maritime
environments. We present the first maritime panoptic obstacle detection
benchmark LaRS, featuring scenes from Lakes, Rivers and Seas. Our major
contribution is the new dataset, which boasts the largest diversity in
recording locations, scene types, obstacle classes, and acquisition conditions
among the related datasets. LaRS is composed of over 4000 per-pixel labeled key
frames with nine preceding frames to allow utilization of the temporal texture,
amounting to over 40k frames. Each key frame is annotated with 8 thing, 3 stuff
classes and 19 global scene attributes. We report the results of 27 semantic
and panoptic segmentation methods, along with several performance insights and
future research directions. To enable objective evaluation, we have implemented
an online evaluation server. The LaRS dataset, evaluation toolkit and benchmark
are publicly available at: https://lojzezust.github.io/lars-dataset
- Abstract(参考訳): 海上障害物検出の進歩は、一般的な海洋環境の複雑さを適切に捉えた多様なデータセットの欠如によって妨げられている。
我々は,湖沼,河川,海のシーンを特徴とする初の海上障害物検出ベンチマークLaRSを示す。
私たちの主な貢献は、関連するデータセットの中で、記録場所、シーンタイプ、障害クラス、取得条件において最大の多様性を持つ、新しいデータセットです。
LaRSは1ピクセルあたり4000以上のラベル付きキーフレームと9つの前のフレームで構成されており、時間的テクスチャの利用が可能であり、40kフレームを超える。
各キーフレームには8つのthing、3つの stuffクラス、19のglobal scene属性がアノテートされている。
本稿では,27のセマンティクスとパンオプティカルセグメンテーション手法と,いくつかのパフォーマンス洞察と今後の研究方向性について報告する。
客観的評価を可能にするために,オンライン評価サーバを実装した。
LaRSデータセット、評価ツールキット、ベンチマークは、https://lojzezust.github.io/lars-datasetで公開されている。
関連論文リスト
- Indiscernible Object Counting in Underwater Scenes [91.86044762367945]
認識不能なオブジェクトのカウントは、その環境に対してブレンドされたオブジェクトをカウントすることである。
本稿では,5,637個の高解像度画像と659,024個の注釈付き中心点を含む大規模データセットIOCfish5Kを提案する。
論文 参考訳(メタデータ) (2023-04-23T15:09:02Z) - Navya3DSeg -- Navya 3D Semantic Segmentation Dataset & split generation
for autonomous vehicles [63.20765930558542]
3Dセマンティックデータは、障害物検出やエゴ-車両の局所化といった中核的な認識タスクに有用である。
そこで我々は,大規模生産段階の運用領域に対応する多様なラベル空間を持つ新しいデータセットであるNavala 3D(Navya3DSeg)を提案する。
ラベルのない23のラベル付きシーケンスと25の補足シーケンスが含まれており、ポイントクラウド上の自己教師付きおよび半教師付きセマンティックセマンティックセグメンテーションベンチマークを探索するために設計された。
論文 参考訳(メタデータ) (2023-02-16T13:41:19Z) - MOSE: A New Dataset for Video Object Segmentation in Complex Scenes [106.64327718262764]
ビデオオブジェクトセグメンテーション(VOS)は、ビデオクリップシーケンス全体を通して特定のオブジェクトをセグメンテーションすることを目的としている。
最先端のVOSメソッドは、既存のデータセット上で優れたパフォーマンス(例えば、90%以上のJ&F)を達成した。
我々は、複雑な環境でのトラッキングとセグメンテーションを研究するために、coMplex video Object SEgmentation (MOSE)と呼ばれる新しいVOSデータセットを収集する。
論文 参考訳(メタデータ) (2023-02-03T17:20:03Z) - AVisT: A Benchmark for Visual Object Tracking in Adverse Visibility [125.77396380698639]
AVisTは、視認性の悪いさまざまなシナリオにおける視覚的トラッキングのためのベンチマークである。
AVisTは、80kの注釈付きフレームを持つ120の挑戦的なシーケンスで構成されており、18の多様なシナリオにまたがっている。
我々は、属性間でのトラッキング性能を詳細に分析し、AVisTで17の人気のトラッカーと最近のトラッカーをベンチマークした。
論文 参考訳(メタデータ) (2022-08-14T17:49:37Z) - KOLOMVERSE: Korea open large-scale image dataset for object detection in the maritime universe [0.5732204366512352]
KRISO による海洋領域における物体検出のための大規模画像データセット KOLOMVERSE を提案する。
韓国の21の領海から撮影した5,845時間の動画データを収集した。
データセットには3840$times$2160ピクセルのイメージがあり、私たちの知る限り、海洋ドメインにおけるオブジェクト検出のための公開データセットとしては、これまでで最大のものである。
論文 参考訳(メタデータ) (2022-06-20T16:45:12Z) - Visible-Thermal UAV Tracking: A Large-Scale Benchmark and New Baseline [80.13652104204691]
本稿では,可視熱UAV追跡(VTUAV)のための高多様性の大規模ベンチマークを構築する。
本稿では, フレームレベルの属性を, チャレンジ固有のトラッカーの可能性を利用するための粗粒度属性アノテーションを提案する。
さらに,様々なレベルでRGB-Tデータを融合するHMFT(Hierarchical Multi-modal Fusion Tracker)という新しいRGB-Tベースラインを設計する。
論文 参考訳(メタデータ) (2022-04-08T15:22:33Z) - The Marine Debris Dataset for Forward-Looking Sonar Semantic
Segmentation [5.1627181881873945]
本稿では,FLS(Forward Looking Sonar)を用いて収集した海洋破片のセグメンテーションのための新しいデータセットを提案する。
このデータセットを作成するために使われるオブジェクトは、典型的な住宅用海洋破片と、散逸した海洋物を含んでいる。
各種エンコーダを用いたアートセマンティックセグメンテーションアーキテクチャの性能を,本データセットで解析した。
論文 参考訳(メタデータ) (2021-08-15T19:29:23Z) - ABOShips -- An Inshore and Offshore Maritime Vessel Detection Dataset
with Precise Annotations [0.17205106391379021]
沿岸および沖合のデータセットの海洋容器検出は例外ではない。
異なる要因を考慮に入れた海上船舶画像のデータセットを収集した。
船体インスタンス(9種類の船を含む)、シーマーク、各種のフローターが正確に注釈付けされた。
4つの主成分検出アルゴリズムのアウト・オブ・ボックス性能を評価した。
論文 参考訳(メタデータ) (2021-02-11T07:05:33Z) - A Realistic Fish-Habitat Dataset to Evaluate Algorithms for Underwater
Visual Analysis [2.6476746128312194]
我々は、DeepFishを大規模データセットでベンチマークスイートとして提示し、いくつかのコンピュータビジョンタスクのためのメソッドをトレーニングし、テストする。
このデータセットは、熱帯オーストラリアの海洋環境にある20の温帯生物から採取された約4万枚の画像で構成されている。
実験では,データセットの特徴を詳細に分析し,いくつかの最先端手法の性能評価を行った。
論文 参考訳(メタデータ) (2020-08-28T12:20:59Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。