論文の概要: FathomNet: An underwater image training database for ocean exploration
and discovery
- arxiv url: http://arxiv.org/abs/2007.00114v3
- Date: Fri, 10 Jul 2020 04:14:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 06:15:41.166852
- Title: FathomNet: An underwater image training database for ocean exploration
and discovery
- Title(参考訳): FathomNet:海洋探査と発見のための水中画像トレーニングデータベース
- Authors: Oc\'eane Boulais, Ben Woodward, Brian Schlining, Lonny Lundsten, Kevin
Barnard, Katy Croff Bell, and Kakani Katija
- Abstract要約: FathomNetは、最新のインテリジェントで自動化された水中画像解析の開発を加速するために最適化された、新しいベースラインイメージトレーニングセットである。
現在までに8万枚以上の画像と10万6000枚以上の局所化が233のクラスで行われており、その中には中層生物やベント生物が含まれる。
この新たなデータセットの予測による品質結果が得られたが、我々の結果は最終的に、海洋探査のためにより大きなデータセットが必要であることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Thousands of hours of marine video data are collected annually from remotely
operated vehicles (ROVs) and other underwater assets. However, current manual
methods of analysis impede the full utilization of collected data for real time
algorithms for ROV and large biodiversity analyses. FathomNet is a novel
baseline image training set, optimized to accelerate development of modern,
intelligent, and automated analysis of underwater imagery. Our seed data set
consists of an expertly annotated and continuously maintained database with
more than 26,000 hours of videotape, 6.8 million annotations, and 4,349 terms
in the knowledge base. FathomNet leverages this data set by providing imagery,
localizations, and class labels of underwater concepts in order to enable
machine learning algorithm development. To date, there are more than 80,000
images and 106,000 localizations for 233 different classes, including midwater
and benthic organisms. Our experiments consisted of training various deep
learning algorithms with approaches to address weakly supervised localization,
image labeling, object detection and classification which prove to be
promising. While we find quality results on prediction for this new dataset,
our results indicate that we are ultimately in need of a larger data set for
ocean exploration.
- Abstract(参考訳): 数千時間に及ぶ海洋ビデオデータは、遠隔操作車両(rov)や他の水中の資産から毎年収集される。
しかし、現在の手動解析手法は、ROVのリアルタイムアルゴリズムと大規模生物多様性解析のための収集データの完全利用を妨げている。
fathomnetは、新しいベースラインイメージトレーニングセットであり、水中画像の現代的でインテリジェントで自動的な解析の開発を加速するために最適化されている。
私たちのシードデータセットは、26,000時間以上のビデオテープ、680万のアノテーション、知識ベースで4,349の用語を備えた、専門家が注釈付きで継続的に維持するデータベースで構成されています。
FathomNetはこのデータセットを利用して、機械学習アルゴリズムの開発を可能にするために、水中の概念の画像、ローカライゼーション、クラスラベルを提供する。
現在までに、中水生物やベント生物を含む233の異なるクラスで、80,000以上の画像と106,000のローカライズがある。
実験では,教師付きローカライゼーション,画像ラベリング,物体検出,分類といった手法を用いて,様々なディープラーニングアルゴリズムのトレーニングを行った。
この新たなデータセットの予測における品質結果を見いだす一方で、我々の結果は最終的に海洋探査のためにより大きなデータセットが必要であることを示唆している。
関連論文リスト
- SeafloorAI: A Large-scale Vision-Language Dataset for Seafloor Geological Survey [11.642711706384212]
SeafloorAIは、5つの地質層にまたがる海底マッピングのための、初めてのAI対応データセットである。
このデータセットは、17,300平方キロメートルに及ぶ62の地理的分散データサーベイと、696Kソナー画像、827Kの注釈付きセグメンテーションマスク、696Kの詳細な言語記述で構成されている。
論文 参考訳(メタデータ) (2024-10-31T19:37:47Z) - Underwater Object Detection in the Era of Artificial Intelligence: Current, Challenge, and Future [119.88454942558485]
水中物体検出(UOD)は、水中の画像やビデオ中の物体を識別し、ローカライズすることを目的としている。
近年、人工知能(AI)に基づく手法、特に深層学習法は、UODにおいて有望な性能を示している。
論文 参考訳(メタデータ) (2024-10-08T00:25:33Z) - BenthicNet: A global compilation of seafloor images for deep learning applications [25.466405216505166]
BenthicNetは海底画像のグローバルコンパイルである。
最初の114万枚以上の画像が収集され、海底環境の多様性を表すためにキュレーションされた。
このコンパイルに基づいて大規模なディープラーニングモデルをトレーニングし,その予備的な結果から,大規模かつ小規模の画像解析タスクの自動化に有効であることが示唆された。
論文 参考訳(メタデータ) (2024-05-08T17:37:57Z) - A Dataset with Multibeam Forward-Looking Sonar for Underwater Object
Detection [0.0]
マルチビーム前方ソナー (MFLS) は水中検出において重要な役割を担っている。
MFLSを用いた水中物体検出の研究にはいくつかの課題がある。
本稿では,Tritech Gemini 1200ikソナーを用いて,9000枚以上のMFLS画像からなる新しいデータセットを提案する。
論文 参考訳(メタデータ) (2022-12-01T08:26:03Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - A New Path: Scaling Vision-and-Language Navigation with Synthetic
Instructions and Imitation Learning [70.14372215250535]
VLN(Vision-and-Language Navigation)の最近の研究は、RLエージェントを訓練して、フォトリアリスティックな環境で自然言語ナビゲーション命令を実行する。
人間の指導データが不足し、訓練環境の多様性が限られていることを考えると、これらのエージェントは複雑な言語基盤と空間言語理解に苦慮している。
我々は、密集した360度パノラマで捉えた500以上の屋内環境を取り、これらのパノラマを通して航法軌道を構築し、各軌道に対して視覚的に接地された指示を生成する。
4.2Mの命令-軌道対のデータセットは、既存の人間の注釈付きデータセットよりも2桁大きい。
論文 参考訳(メタデータ) (2022-10-06T17:59:08Z) - Satellite Image Time Series Analysis for Big Earth Observation Data [50.591267188664666]
本稿では,機械学習を用いた衛星画像時系列解析のためのオープンソースRパッケージである sit について述べる。
本手法は, Cerrado Biome のケーススタディにより, 土地利用と土地被覆マップの精度が高いことを示す。
論文 参考訳(メタデータ) (2022-04-24T15:23:25Z) - FathomNet: A global underwater image training set for enabling
artificial intelligence in the ocean [0.0]
オーシャンゴープラットフォームは、監視とナビゲーションのために高解像度のカメラフィードを統合することで、視覚データを大量に生成している。
機械学習の最近の進歩は、視覚データの高速かつ洗練された分析を可能にするが、海洋学の世界では成功しなかった。
FathomNetのデータに基づいてトレーニングされた機械学習モデルを、さまざまな機関のビデオデータに適用する方法を実証する。
論文 参考訳(メタデータ) (2021-09-29T18:08:42Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Object Detection in Aerial Images: A Large-Scale Benchmark and
Challenges [124.48654341780431]
航空画像(DOTA)におけるオブジェクトデテクションの大規模データセットとODAIの総合的ベースラインについて述べる。
提案するDOTAデータセットは,11,268個の空中画像から収集した18カテゴリのオブジェクト指向ボックスアノテーションの1,793,658個のオブジェクトインスタンスを含む。
70以上の構成を持つ10の最先端アルゴリズムをカバーするベースラインを構築し,各モデルの速度と精度を評価した。
論文 参考訳(メタデータ) (2021-02-24T11:20:55Z) - A Realistic Fish-Habitat Dataset to Evaluate Algorithms for Underwater
Visual Analysis [2.6476746128312194]
我々は、DeepFishを大規模データセットでベンチマークスイートとして提示し、いくつかのコンピュータビジョンタスクのためのメソッドをトレーニングし、テストする。
このデータセットは、熱帯オーストラリアの海洋環境にある20の温帯生物から採取された約4万枚の画像で構成されている。
実験では,データセットの特徴を詳細に分析し,いくつかの最先端手法の性能評価を行った。
論文 参考訳(メタデータ) (2020-08-28T12:20:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。