論文の概要: BenthiCat: An opti-acoustic dataset for advancing benthic classification and habitat mapping
- arxiv url: http://arxiv.org/abs/2510.04876v1
- Date: Mon, 06 Oct 2025 15:00:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.919582
- Title: BenthiCat: An opti-acoustic dataset for advancing benthic classification and habitat mapping
- Title(参考訳): BenthiCat: ベントニック分類と生息地マッピングを推進するためのオプティ・アコースティックデータセット
- Authors: Hayat Rajani, Valerio Franchi, Borja Martinez-Clavel Valles, Raimon Ramos, Rafael Garcia, Nuno Gracias,
- Abstract要約: 本稿では,カタルーニャ(スペイン)沿岸で収集された約100万個のサイドスキャン・ソナー (SSS) タイルからなる,完全なマルチモーダルデータセットを提案する。
SSSタイルの約num36000は、分類モデルの教師付き微調整を可能にするためにセグメンテーションマスクで手動で注釈付けされている。
センサーデータはすべてモザイクとともにリリースされ、さらなる探索とアルゴリズム開発をサポートする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Benthic habitat mapping is fundamental for understanding marine ecosystems, guiding conservation efforts, and supporting sustainable resource management. Yet, the scarcity of large, annotated datasets limits the development and benchmarking of machine learning models in this domain. This paper introduces a thorough multi-modal dataset, comprising about a million side-scan sonar (SSS) tiles collected along the coast of Catalonia (Spain), complemented by bathymetric maps and a set of co-registered optical images from targeted surveys using an autonomous underwater vehicle (AUV). Approximately \num{36000} of the SSS tiles have been manually annotated with segmentation masks to enable supervised fine-tuning of classification models. All the raw sensor data, together with mosaics, are also released to support further exploration and algorithm development. To address challenges in multi-sensor data fusion for AUVs, we spatially associate optical images with corresponding SSS tiles, facilitating self-supervised, cross-modal representation learning. Accompanying open-source preprocessing and annotation tools are provided to enhance accessibility and encourage research. This resource aims to establish a standardized benchmark for underwater habitat mapping, promoting advancements in autonomous seafloor classification and multi-sensor integration.
- Abstract(参考訳): ベントイック生息地のマッピングは海洋生態系の理解、保全活動の指導、持続可能な資源管理の支援に不可欠である。
しかし、大規模な注釈付きデータセットの不足は、この領域における機械学習モデルの開発とベンチマークを制限している。
本稿では,カタルーニャ(スペイン)沿岸で収集された約100万個のサイドスキャン・ソナー (SSS) タイルと,自動水中車両 (AUV) を用いた目標測量から得られた光画像の集合体からなる,完全なマルチモーダルデータセットを提案する。
SSSタイルの約 \num{36000} は、分類モデルの教師付き微調整を可能にするために、セグメンテーションマスクで手動で注釈付けされている。
センサーデータはすべてモザイクとともにリリースされ、さらなる探索とアルゴリズム開発をサポートする。
AUVのマルチセンサデータ融合における課題に対処するため、光学画像と対応するSSSタイルを空間的に関連付け、自己教師付きクロスプラットフォーム表現学習を容易にする。
アクセシビリティを高め、研究を促進するために、オープンソース前処理およびアノテーションツールが提供される。
このリソースは、水中の生息環境マッピングのための標準化されたベンチマークを確立し、自律的な海底分類とマルチセンサー統合の進歩を促進することを目的としている。
関連論文リスト
- Neptune-X: Active X-to-Maritime Generation for Universal Maritime Object Detection [54.1960918379255]
Neptune-Xは、海洋オブジェクト検出のためのデータ中心の生成-選択フレームワークである。
X-to-Maritime(X-to-Maritime)は、多様で現実的な海洋シーンを合成する多モード条件生成モデルである。
提案手法は,海上シーン合成における新しいベンチマークを設定し,検出精度を大幅に向上させる。
論文 参考訳(メタデータ) (2025-09-25T04:59:02Z) - TerraFM: A Scalable Foundation Model for Unified Multisensor Earth Observation [65.74990259650984]
本研究では,グローバルに分散したSentinel-1とSentinel-2画像を利用する,スケーラブルな自己教師型学習モデルTerraFMを紹介する。
我々のトレーニング戦略は、局所的・言語的コントラスト学習を統合し、二重中心化機構を導入する。
TerraFMは分類タスクとセグメンテーションタスクの両方において強力な一般化を実現し、GEO-BenchとCopernicus-Benchの先行モデルよりも優れている。
論文 参考訳(メタデータ) (2025-06-06T17:59:50Z) - EarthMind: Leveraging Cross-Sensor Data for Advanced Earth Observation Interpretation with a Unified Multimodal LLM [103.7537991413311]
地球観測(EO)データ分析は、環境と人間の動態のモニタリングに不可欠である。
最近のMultimodal Large Language Models (MLLM) は、EO理解の可能性を秘めているが、シングルセンサー入力に限定されている。
我々は、シングルセンサーとクロスセンサーの両方の入力を処理する統合視覚言語フレームワークであるEarthMindを提案する。
論文 参考訳(メタデータ) (2025-06-02T13:36:05Z) - SeafloorAI: A Large-scale Vision-Language Dataset for Seafloor Geological Survey [11.642711706384212]
SeafloorAIは、5つの地質層にまたがる海底マッピングのための、初めてのAI対応データセットである。
このデータセットは、17,300平方キロメートルに及ぶ62の地理的分散データサーベイと、696Kソナー画像、827Kの注釈付きセグメンテーションマスク、696Kの詳細な言語記述で構成されている。
論文 参考訳(メタデータ) (2024-10-31T19:37:47Z) - SeePerSea: Multi-modal Perception Dataset of In-water Objects for Autonomous Surface Vehicles [10.732732686425308]
本稿では,自律航法のためのマルチモーダル認識データセットについて紹介する。
自律型表面車両(ASV)の環境意識を高めるため、水中環境における水中障害物に焦点を当てている。
論文 参考訳(メタデータ) (2024-04-29T04:00:19Z) - Navya3DSeg -- Navya 3D Semantic Segmentation Dataset & split generation
for autonomous vehicles [63.20765930558542]
3Dセマンティックデータは、障害物検出やエゴ-車両の局所化といった中核的な認識タスクに有用である。
そこで我々は,大規模生産段階の運用領域に対応する多様なラベル空間を持つ新しいデータセットであるNavala 3D(Navya3DSeg)を提案する。
ラベルのない23のラベル付きシーケンスと25の補足シーケンスが含まれており、ポイントクラウド上の自己教師付きおよび半教師付きセマンティックセマンティックセグメンテーションベンチマークを探索するために設計された。
論文 参考訳(メタデータ) (2023-02-16T13:41:19Z) - SVAM: Saliency-guided Visual Attention Modeling by Autonomous Underwater
Robots [16.242924916178282]
本稿では,自律型水中ロボットの視覚的注意モデル(SVAM)に対する総合的なアプローチを提案する。
提案するSVAM-Netは,様々なスケールの深部視覚的特徴を統合し,自然水中画像に有効なSOD(Salient Object Detection)を実現する。
論文 参考訳(メタデータ) (2020-11-12T08:17:21Z) - Towards Adaptive Benthic Habitat Mapping [9.904746542801838]
本研究では,効率的な自律下水車両(AUV)探査計画に生息環境モデルを用いる方法を示す。
ベイズニューラルネットワークは、広範囲な水量測定データを与えられたとき、視覚的に派生した生息地クラスを予測するために使用される。
これらの構造的不確実性推定が、より少ないサンプルでモデルを改善するためにどのように利用できるかを実証する。
論文 参考訳(メタデータ) (2020-06-20T01:03:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。