論文の概要: FathomNet: An underwater image training database for ocean exploration
and discovery
- arxiv url: http://arxiv.org/abs/2007.00114v3
- Date: Fri, 10 Jul 2020 04:14:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 06:15:41.166852
- Title: FathomNet: An underwater image training database for ocean exploration
and discovery
- Title(参考訳): FathomNet:海洋探査と発見のための水中画像トレーニングデータベース
- Authors: Oc\'eane Boulais, Ben Woodward, Brian Schlining, Lonny Lundsten, Kevin
Barnard, Katy Croff Bell, and Kakani Katija
- Abstract要約: FathomNetは、最新のインテリジェントで自動化された水中画像解析の開発を加速するために最適化された、新しいベースラインイメージトレーニングセットである。
現在までに8万枚以上の画像と10万6000枚以上の局所化が233のクラスで行われており、その中には中層生物やベント生物が含まれる。
この新たなデータセットの予測による品質結果が得られたが、我々の結果は最終的に、海洋探査のためにより大きなデータセットが必要であることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Thousands of hours of marine video data are collected annually from remotely
operated vehicles (ROVs) and other underwater assets. However, current manual
methods of analysis impede the full utilization of collected data for real time
algorithms for ROV and large biodiversity analyses. FathomNet is a novel
baseline image training set, optimized to accelerate development of modern,
intelligent, and automated analysis of underwater imagery. Our seed data set
consists of an expertly annotated and continuously maintained database with
more than 26,000 hours of videotape, 6.8 million annotations, and 4,349 terms
in the knowledge base. FathomNet leverages this data set by providing imagery,
localizations, and class labels of underwater concepts in order to enable
machine learning algorithm development. To date, there are more than 80,000
images and 106,000 localizations for 233 different classes, including midwater
and benthic organisms. Our experiments consisted of training various deep
learning algorithms with approaches to address weakly supervised localization,
image labeling, object detection and classification which prove to be
promising. While we find quality results on prediction for this new dataset,
our results indicate that we are ultimately in need of a larger data set for
ocean exploration.
- Abstract(参考訳): 数千時間に及ぶ海洋ビデオデータは、遠隔操作車両(rov)や他の水中の資産から毎年収集される。
しかし、現在の手動解析手法は、ROVのリアルタイムアルゴリズムと大規模生物多様性解析のための収集データの完全利用を妨げている。
fathomnetは、新しいベースラインイメージトレーニングセットであり、水中画像の現代的でインテリジェントで自動的な解析の開発を加速するために最適化されている。
私たちのシードデータセットは、26,000時間以上のビデオテープ、680万のアノテーション、知識ベースで4,349の用語を備えた、専門家が注釈付きで継続的に維持するデータベースで構成されています。
FathomNetはこのデータセットを利用して、機械学習アルゴリズムの開発を可能にするために、水中の概念の画像、ローカライゼーション、クラスラベルを提供する。
現在までに、中水生物やベント生物を含む233の異なるクラスで、80,000以上の画像と106,000のローカライズがある。
実験では,教師付きローカライゼーション,画像ラベリング,物体検出,分類といった手法を用いて,様々なディープラーニングアルゴリズムのトレーニングを行った。
この新たなデータセットの予測における品質結果を見いだす一方で、我々の結果は最終的に海洋探査のためにより大きなデータセットが必要であることを示唆している。
関連論文リスト
- A Dataset with Multibeam Forward-Looking Sonar for Underwater Object
Detection [0.0]
マルチビーム前方ソナー (MFLS) は水中検出において重要な役割を担っている。
MFLSを用いた水中物体検出の研究にはいくつかの課題がある。
本稿では,Tritech Gemini 1200ikソナーを用いて,9000枚以上のMFLS画像からなる新しいデータセットを提案する。
論文 参考訳(メタデータ) (2022-12-01T08:26:03Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - A New Path: Scaling Vision-and-Language Navigation with Synthetic
Instructions and Imitation Learning [70.14372215250535]
VLN(Vision-and-Language Navigation)の最近の研究は、RLエージェントを訓練して、フォトリアリスティックな環境で自然言語ナビゲーション命令を実行する。
人間の指導データが不足し、訓練環境の多様性が限られていることを考えると、これらのエージェントは複雑な言語基盤と空間言語理解に苦慮している。
我々は、密集した360度パノラマで捉えた500以上の屋内環境を取り、これらのパノラマを通して航法軌道を構築し、各軌道に対して視覚的に接地された指示を生成する。
4.2Mの命令-軌道対のデータセットは、既存の人間の注釈付きデータセットよりも2桁大きい。
論文 参考訳(メタデータ) (2022-10-06T17:59:08Z) - Guided Unsupervised Learning by Subaperture Decomposition for Ocean SAR
Image Retrieval [31.974530072369753]
サブアパーチャ分解は、海面における教師なし学習の検索を強化するために用いられる。
ドップラーセントロイド画像が入力データとして使用される場合,SDは重要な性能向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-09-29T18:17:56Z) - Semantic Segmentation of Vegetation in Remote Sensing Imagery Using Deep
Learning [77.34726150561087]
本稿では,公開されているリモートセンシングデータからなるマルチモーダル・大規模時間データセットを作成するためのアプローチを提案する。
我々は、異なる種類の植生を分離できる畳み込みニューラルネットワーク(CNN)モデルを使用する。
論文 参考訳(メタデータ) (2022-09-28T18:51:59Z) - Satellite Image Time Series Analysis for Big Earth Observation Data [50.591267188664666]
本稿では,機械学習を用いた衛星画像時系列解析のためのオープンソースRパッケージである sit について述べる。
本手法は, Cerrado Biome のケーススタディにより, 土地利用と土地被覆マップの精度が高いことを示す。
論文 参考訳(メタデータ) (2022-04-24T15:23:25Z) - FathomNet: A global underwater image training set for enabling
artificial intelligence in the ocean [0.0]
オーシャンゴープラットフォームは、監視とナビゲーションのために高解像度のカメラフィードを統合することで、視覚データを大量に生成している。
機械学習の最近の進歩は、視覚データの高速かつ洗練された分析を可能にするが、海洋学の世界では成功しなかった。
FathomNetのデータに基づいてトレーニングされた機械学習モデルを、さまざまな機関のビデオデータに適用する方法を実証する。
論文 参考訳(メタデータ) (2021-09-29T18:08:42Z) - GeoCLR: Georeference Contrastive Learning for Efficient Seafloor Image
Interpretation [8.837172743444249]
本稿では,CNNの効率的な学習のためのジオリフレクション・コントラシティブ・ラーニング・オブ・ビジュアル・リ表現(GeoCLR)について述べる。
GeoCLRは、近くで撮影された画像を使って類似した画像ペアを生成し、これらを遠く離れた画像ペアと対比する。
この方法の主な利点は、CNN訓練に人的入力を必要としない自己教師型であることである。
我々はGeoCLRによって生成された潜在表現がどのように人間のアノテーションの取り組みを効率的に導くことができるかを実証する。
論文 参考訳(メタデータ) (2021-08-13T22:42:34Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Object Detection in Aerial Images: A Large-Scale Benchmark and
Challenges [124.48654341780431]
航空画像(DOTA)におけるオブジェクトデテクションの大規模データセットとODAIの総合的ベースラインについて述べる。
提案するDOTAデータセットは,11,268個の空中画像から収集した18カテゴリのオブジェクト指向ボックスアノテーションの1,793,658個のオブジェクトインスタンスを含む。
70以上の構成を持つ10の最先端アルゴリズムをカバーするベースラインを構築し,各モデルの速度と精度を評価した。
論文 参考訳(メタデータ) (2021-02-24T11:20:55Z) - A Realistic Fish-Habitat Dataset to Evaluate Algorithms for Underwater
Visual Analysis [2.6476746128312194]
我々は、DeepFishを大規模データセットでベンチマークスイートとして提示し、いくつかのコンピュータビジョンタスクのためのメソッドをトレーニングし、テストする。
このデータセットは、熱帯オーストラリアの海洋環境にある20の温帯生物から採取された約4万枚の画像で構成されている。
実験では,データセットの特徴を詳細に分析し,いくつかの最先端手法の性能評価を行った。
論文 参考訳(メタデータ) (2020-08-28T12:20:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。