論文の概要: FathomNet: A global underwater image training set for enabling
artificial intelligence in the ocean
- arxiv url: http://arxiv.org/abs/2109.14646v1
- Date: Wed, 29 Sep 2021 18:08:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-02 10:30:59.399382
- Title: FathomNet: A global underwater image training set for enabling
artificial intelligence in the ocean
- Title(参考訳): FathomNet: 海で人工知能を可能にするグローバルな水中画像トレーニングセット
- Authors: Kakani Katija, Eric Orenstein, Brian Schlining, Lonny Lundsten, Kevin
Barnard, Giovanna Sainz, Oceane Boulais, Benjamin Woodward, Katy Croff Bell
- Abstract要約: オーシャンゴープラットフォームは、監視とナビゲーションのために高解像度のカメラフィードを統合することで、視覚データを大量に生成している。
機械学習の最近の進歩は、視覚データの高速かつ洗練された分析を可能にするが、海洋学の世界では成功しなかった。
FathomNetのデータに基づいてトレーニングされた機械学習モデルを、さまざまな機関のビデオデータに適用する方法を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ocean-going platforms are integrating high-resolution camera feeds for
observation and navigation, producing a deluge of visual data. The volume and
rate of this data collection can rapidly outpace researchers' abilities to
process and analyze them. Recent advances in machine learning enable fast,
sophisticated analysis of visual data, but have had limited success in the
oceanographic world due to lack of dataset standardization, sparse annotation
tools, and insufficient formatting and aggregation of existing, expertly
curated imagery for use by data scientists. To address this need, we have built
FathomNet, a public platform that makes use of existing (and future), expertly
curated data. Initial efforts have leveraged MBARI's Video Annotation and
Reference System and annotated deep sea video database, which has more than 7M
annotations, 1M framegrabs, and 5k terms in the knowledgebase, with additional
contributions by National Geographic Society (NGS) and NOAA's Office of Ocean
Exploration and Research. FathomNet has over 100k localizations of 1k midwater
and benthic classes, and contains iconic and non-iconic views of marine
animals, underwater equipment, debris, etc. We will demonstrate how machine
learning models trained on FathomNet data can be applied across different
institutional video data, (e.g., NGS' Deep Sea Camera System and NOAA's ROV
Deep Discoverer), and enable automated acquisition and tracking of midwater
animals using MBARI's ROV MiniROV. As FathomNet continues to develop and
incorporate more image data from other oceanographic community members, this
effort will enable scientists, explorers, policymakers, storytellers, and the
public to understand and care for our ocean.
- Abstract(参考訳): 海を行き来するプラットフォームは、観測とナビゲーションのための高解像度カメラフィードを統合し、大量のビジュアルデータを生成している。
このデータ収集のボリュームとレートは、研究者が処理し分析する能力を急速に上回る可能性がある。
機械学習の最近の進歩は、ビジュアルデータの高速で洗練された分析を可能にするが、データセットの標準化、スパースアノテーションツールの欠如、データ科学者が使用する既存の専門的な画像のフォーマット化と集約が不十分なため、海洋学の世界では限られた成功を収めた。
このニーズに対処するため、私たちは、既存の(そして将来)専門的にキュレートされたデータを利用する公開プラットフォームであるFathomNetを構築しました。
MBARIのVideo Annotation and Reference Systemと注釈付き深海ビデオデータベースは、知識ベースに7Mのアノテーション、1Mのフレームグラブ、5kの用語があり、National Geographic Society(NGS)とNOAAのOcean Exploration and Research(海洋探査・研究局)が貢献している。
fathomnetには1k以上の中水・ベント海の分布があり、海洋動物、水中機器、残骸などの象徴的かつ非音響的な視点がある。
MBARIのROV MiniROVを用いて,FathomNetデータに基づいてトレーニングされた機械学習モデルを,さまざまな機関のビデオデータ(例えば,NGSのDeep Sea Camera SystemとNOAAのROV Deep Discoverer)に適用し,水中動物の自動取得と追跡を可能にする。
FathomNetは、他の海洋コミュニティメンバーによる画像データの開発と統合を続けており、この取り組みにより、科学者、探検家、政策立案者、ストーリーテラー、そして一般大衆が海の理解とケアが可能になる。
関連論文リスト
- SeafloorAI: A Large-scale Vision-Language Dataset for Seafloor Geological Survey [11.642711706384212]
SeafloorAIは、5つの地質層にまたがる海底マッピングのための、初めてのAI対応データセットである。
このデータセットは、17,300平方キロメートルに及ぶ62の地理的分散データサーベイと、696Kソナー画像、827Kの注釈付きセグメンテーションマスク、696Kの詳細な言語記述で構成されている。
論文 参考訳(メタデータ) (2024-10-31T19:37:47Z) - Diving into Underwater: Segment Anything Model Guided Underwater Salient Instance Segmentation and A Large-scale Dataset [60.14089302022989]
水中視覚タスクは複雑な水中状況のため、しばしばセグメンテーションの精度が低い。
第1次大規模水中塩分分節データセット(USIS10K)を構築した。
本研究では,水中ドメインに特化してセグメンツ・ア・シング・モデル(USIS-SAM)に基づく水中塩分・インスタンス・アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-10T06:17:33Z) - BenthicNet: A global compilation of seafloor images for deep learning applications [25.466405216505166]
BenthicNetは海底画像のグローバルコンパイルである。
最初の114万枚以上の画像が収集され、海底環境の多様性を表すためにキュレーションされた。
このコンパイルに基づいて大規模なディープラーニングモデルをトレーニングし,その予備的な結果から,大規模かつ小規模の画像解析タスクの自動化に有効であることが示唆された。
論文 参考訳(メタデータ) (2024-05-08T17:37:57Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - A Dataset with Multibeam Forward-Looking Sonar for Underwater Object
Detection [0.0]
マルチビーム前方ソナー (MFLS) は水中検出において重要な役割を担っている。
MFLSを用いた水中物体検出の研究にはいくつかの課題がある。
本稿では,Tritech Gemini 1200ikソナーを用いて,9000枚以上のMFLS画像からなる新しいデータセットを提案する。
論文 参考訳(メタデータ) (2022-12-01T08:26:03Z) - Guided Unsupervised Learning by Subaperture Decomposition for Ocean SAR
Image Retrieval [31.974530072369753]
サブアパーチャ分解は、海面における教師なし学習の検索を強化するために用いられる。
ドップラーセントロイド画像が入力データとして使用される場合,SDは重要な性能向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-09-29T18:17:56Z) - xView3-SAR: Detecting Dark Fishing Activity Using Synthetic Aperture
Radar Imagery [52.67592123500567]
世界の漁業は海洋資源や生態系に大きな脅威をもたらす。
夜間または夜間、全天候下で暗黒船の自動検出が可能となった。
xView3-SARは、Sentinel-1ミッションから得られた1000近い分析可能なSAR画像で構成されている。
論文 参考訳(メタデータ) (2022-06-02T06:53:45Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - FathomNet: An underwater image training database for ocean exploration
and discovery [0.0]
FathomNetは、最新のインテリジェントで自動化された水中画像解析の開発を加速するために最適化された、新しいベースラインイメージトレーニングセットである。
現在までに8万枚以上の画像と10万6000枚以上の局所化が233のクラスで行われており、その中には中層生物やベント生物が含まれる。
この新たなデータセットの予測による品質結果が得られたが、我々の結果は最終的に、海洋探査のためにより大きなデータセットが必要であることを示唆している。
論文 参考訳(メタデータ) (2020-06-30T21:23:06Z) - Deep Learning based Pedestrian Inertial Navigation: Methods, Dataset and
On-Device Inference [49.88536971774444]
慣性測定ユニット(IMU)は小型で安価でエネルギー効率が良く、スマートデバイスや移動ロボットに広く使われている。
正確で信頼性の高い歩行者ナビゲーションをサポートするために慣性データをエクスプロイトすることは、新しいインターネット・オブ・シングス・アプリケーションやサービスにとって重要なコンポーネントである。
我々は、深層学習に基づく慣性ナビゲーション研究のための最初の公開データセットであるOxIOD(OxIOD)を提示、リリースする。
論文 参考訳(メタデータ) (2020-01-13T04:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。