論文の概要: FathomVerse: A community science dataset for ocean animal discovery
- arxiv url: http://arxiv.org/abs/2412.01701v1
- Date: Mon, 02 Dec 2024 16:49:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:42:29.210812
- Title: FathomVerse: A community science dataset for ocean animal discovery
- Title(参考訳): FathomVerse:海洋動物発見のためのコミュニティサイエンスデータセット
- Authors: Genevieve Patterson, Joost Daniels, Benjamin Woodward, Kevin Barnard, Giovanna Sainz, Lonny Lundsten, Kakani Katija,
- Abstract要約: FathomVerse v0データセットを提示し、深海の人間とめったに接触しない動物を探索することで、フィールドの限界を押し上げる。
データセットは3843枚の画像と、深海底の2箇所で記録された12の異なる形態群から8092個の箱で構成されている。
海星と交尾するタコや、吸血鬼のイカやクモの群れなど、視覚的に混乱するシナリオが特徴である。
- 参考スコア(独自算出の注目度): 0.7336679261573507
- License:
- Abstract: Can computer vision help us explore the ocean? The ultimate challenge for computer vision is to recognize any visual phenomena, more than only the objects and animals humans encounter in their terrestrial lives. Previous datasets have explored everyday objects and fine-grained categories humans see frequently. We present the FathomVerse v0 detection dataset to push the limits of our field by exploring animals that rarely come in contact with people in the deep sea. These animals present a novel vision challenge. The FathomVerse v0 dataset consists of 3843 images with 8092 bounding boxes from 12 distinct morphological groups recorded at two locations on the deep seafloor that are new to computer vision. It features visually perplexing scenarios such as an octopus intertwined with a sea star, and confounding categories like vampire squids and sea spiders. This dataset can push forward research on topics like fine-grained transfer learning, novel category discovery, species distribution modeling, and carbon cycle analysis, all of which are important to the care and husbandry of our planet.
- Abstract(参考訳): コンピュータービジョンは海を探索するのに役立ちますか?
コンピュータビジョンの究極の課題は、人間が地上で遭遇する物体や動物だけでなく、あらゆる視覚現象を認識することである。
過去のデータセットは、人間が頻繁に見る日常の物体や細かい分類を探索してきた。
FathomVerse v0検出データセットを提示し、深海の人間とめったに接触しない動物を探索することで、フィールドの限界を押し上げる。
これらの動物は、新しいビジョンチャレンジを示します。
FathomVerse v0データセットは、コンピュータビジョンに新しい深海底の2箇所で記録された12の異なる形態群から8092個の境界ボックスを持つ3843の画像で構成されている。
海星と交尾するタコや、吸血鬼のイカやクモの群れなど、視覚的に混乱するシナリオが特徴である。
このデータセットは、細粒度移動学習、新しいカテゴリー発見、種種分布モデリング、炭素循環分析などのトピックの研究を推し進めることができる。
関連論文リスト
- Reconstructing Animals and the Wild [51.98009864071166]
本研究では,単一画像から自然シーンを再構成する手法を提案する。
当社のアプローチは、大規模言語モデルにおける強力な世界の先駆的活用の進歩に基づくものです。
本稿では,100万枚の画像と数千枚の資産からなる合成データセットを提案する。
論文 参考訳(メタデータ) (2024-11-27T23:24:27Z) - Does Spatial Cognition Emerge in Frontier Models? [56.47912101304053]
本研究では,フロンティアモデルにおける空間認知を体系的に評価するベンチマークSPACEを提案する。
その結果、現代のフロンティアモデルは動物の空間知能に劣っていることが示唆された。
論文 参考訳(メタデータ) (2024-10-09T01:41:49Z) - Fish Tracking Challenge 2024: A Multi-Object Tracking Competition with Sweetfish Schooling Data [0.6834295298053009]
魚追跡チャレンジ2024では、学校用サツマイモの行動に焦点を当てた多目的追跡コンペティションが導入されている。
SweetFishデータセットを使用することで、参加者は10種のサツマイモの位置を同時に正確に監視する高度な追跡モデルの開発を任される。
ビデオデータとバウンディングボックスアノテーションを活用することで、このコンペティションは自動検出と追跡アルゴリズムの革新を促進することを目指している。
論文 参考訳(メタデータ) (2024-08-31T03:26:53Z) - The FathomNet2023 Competition Dataset [0.8180522890142969]
海洋科学者は、何十年にもわたって海洋生物を研究するために、視覚データを収集してきた。
これらのデータを自動的に処理するツールもあるが、サンプル集団の極端な変動を処理できるツールは存在しない。
画像やビデオのシーケンスが新しい生物、珍しい動物のコレクションを含むことを認識できるモデルや、そうでなければ海中の視覚データを完全に活用することが重要である。
論文 参考訳(メタデータ) (2023-07-17T18:50:53Z) - Context-Driven Detection of Invertebrate Species in Deep-Sea Video [11.38215488702246]
4つの水中基質と59種の水中無脊椎動物を時間的に局在させるためのベンチマークスイートについて検討した。
DUSIAは現在、ROVで30fpsで1080pで撮影された25の動画を10時間以上録画している。
いくつかのフレームには、無脊椎動物が興味を持つための正確な境界ボックスの位置がアノテートされている。
論文 参考訳(メタデータ) (2022-06-01T18:59:46Z) - Unlocking the potential of deep learning for marine ecology: overview,
applications, and outlook [8.3226670069051]
本稿では,海洋生態学者と計算機科学者のギャップを埋めることを目的としている。
本研究では, 一般的な深層学習手法を, 平易な言語における生態データ分析に適用する。
我々は,海洋生態学への深層学習の確立と新たな応用を通じて,課題と機会を解説する。
論文 参考訳(メタデータ) (2021-09-29T21:59:16Z) - FathomNet: A global underwater image training set for enabling
artificial intelligence in the ocean [0.0]
オーシャンゴープラットフォームは、監視とナビゲーションのために高解像度のカメラフィードを統合することで、視覚データを大量に生成している。
機械学習の最近の進歩は、視覚データの高速かつ洗練された分析を可能にするが、海洋学の世界では成功しなかった。
FathomNetのデータに基づいてトレーニングされた機械学習モデルを、さまざまな機関のビデオデータに適用する方法を実証する。
論文 参考訳(メタデータ) (2021-09-29T18:08:42Z) - Cetacean Translation Initiative: a roadmap to deciphering the
communication of sperm whales [97.41394631426678]
最近の研究では、非ヒト種における音響コミュニケーションを分析するための機械学習ツールの約束を示した。
マッコウクジラの大量生物音響データの収集と処理に必要な重要な要素について概説する。
開発された技術能力は、非人間コミュニケーションと動物行動研究を研究する幅広いコミュニティにおいて、クロス応用と進歩をもたらす可能性が高い。
論文 参考訳(メタデータ) (2021-04-17T18:39:22Z) - Generating Physically-Consistent Satellite Imagery for Climate Visualizations [53.61991820941501]
我々は,将来的な洪水や森林再生イベントの合成衛星画像を作成するために,生成的敵ネットワークを訓練する。
純粋なディープラーニングベースのモデルでは、洪水の可視化を生成することができるが、洪水の影響を受けない場所では幻覚的な洪水が発生する。
我々は,地球観測におけるセグメンテーションガイドによる画像と画像の変換のためのコードとデータセットを公開している。
論文 参考訳(メタデータ) (2021-04-10T15:00:15Z) - What Can You Learn from Your Muscles? Learning Visual Representation
from Human Interactions [50.435861435121915]
視覚のみの表現よりも優れた表現を学べるかどうかを調べるために,人間のインタラクションとアテンション・キューを用いている。
実験の結果,我々の「音楽監督型」表現は,視覚のみの最先端手法であるMoCoよりも優れていた。
論文 参考訳(メタデータ) (2020-10-16T17:46:53Z) - VisualEchoes: Spatial Image Representation Learning through Echolocation [97.23789910400387]
いくつかの動物種(コウモリ、イルカ、クジラなど)や視覚障害者さえもエコーロケーションを行う能力を持っている。
エコーロケーションを用いて有用な視覚特徴を学習する対話型表現学習フレームワークを提案する。
我々の研究は、物理的世界との相互作用によって監督される、エンボディエージェントのための表現学習の新しい道を開く。
論文 参考訳(メタデータ) (2020-05-04T16:16:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。