論文の概要: Closer to Ground Truth: Realistic Shape and Appearance Labeled Data Generation for Unsupervised Underwater Image Segmentation
- arxiv url: http://arxiv.org/abs/2503.16051v1
- Date: Thu, 20 Mar 2025 11:34:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:33:54.442975
- Title: Closer to Ground Truth: Realistic Shape and Appearance Labeled Data Generation for Unsupervised Underwater Image Segmentation
- Title(参考訳): 地上の真実に近づいた:非監督水中画像分割のためのリアルな形状と外観ラベル付きデータ生成
- Authors: Andrei Jelea, Ahmed Nabil Belbachir, Marius Leordeanu,
- Abstract要約: 人間のアノテーションを必要としない2段階の非教師付きセグメンテーション手法を導入し、人工的に作成された実画像と実画像を組み合わせる。
本手法は,仮想魚を現実世界の水中環境に配置することにより,難易度の高い合成訓練データを生成する。
水中ビデオにおけるサーモンセグメンテーションの特定の事例にその効果を示し,本研究で最大のデータセットであるDeepSalmon(30GB)を紹介した。
- 参考スコア(独自算出の注目度): 8.511846002129522
- License:
- Abstract: Solving fish segmentation in underwater videos, a real-world problem of great practical value in marine and aquaculture industry, is a challenging task due to the difficulty of the filming environment, poor visibility and limited existing annotated underwater fish data. In order to overcome these obstacles, we introduce a novel two stage unsupervised segmentation approach that requires no human annotations and combines artificially created and real images. Our method generates challenging synthetic training data, by placing virtual fish in real-world underwater habitats, after performing fish transformations such as Thin Plate Spline shape warping and color Histogram Matching, which realistically integrate synthetic fish into the backgrounds, making the generated images increasingly closer to the real world data with every stage of our approach. While we validate our unsupervised method on the popular DeepFish dataset, obtaining a performance close to a fully-supervised SoTA model, we further show its effectiveness on the specific case of salmon segmentation in underwater videos, for which we introduce DeepSalmon, the largest dataset of its kind in the literature (30 GB). Moreover, on both datasets we prove the capability of our approach to boost the performance of the fully-supervised SoTA model.
- Abstract(参考訳): 水中ビデオにおける魚のセグメンテーションの解決は、海洋・水産産業において非常に有用な現実的な問題であり、撮影環境の難しさ、視界の悪化、既存の注釈付き水中魚データに制限があるため、課題である。
これらの障害を克服するために,人間のアノテーションを必要とせず,人工的生成と実画像を組み合わせた2段階の非教師付きセグメンテーション手法を提案する。
提案手法は, 仮想魚を実際の水中環境に配置し, 合成魚を背景に現実的に統合した薄板スプライン形状整形, 色ヒストグラムマッチングなどの魚の変換を行い, 生鮮魚を実際の水中環境に近づけることにより, より現実的な合成訓練データを生成する。
一般的なDeepFishデータセットの教師なし手法を検証するとともに、完全教師付きSoTAモデルに近い性能が得られる一方で、水中ビデオにおけるサーモンセグメンテーションの特定のケースにおいて、その効果を示すとともに、文学において最大のデータセットであるDeepSalmon(30GB)を紹介した。
さらに、両データセットにおいて、完全に教師されたSoTAモデルの性能を高めるためのアプローチの能力を証明する。
関連論文リスト
- AquaticCLIP: A Vision-Language Foundation Model for Underwater Scene Analysis [40.27548815196493]
AquaticCLIP(AquaticCLIP)は、水文シーン理解に適した、新しいコントラスト言語画像事前学習モデルである。
AquaticCLIPは、画像とテキストを水生環境で整列させる、教師なしの新たな学習フレームワークを提供する。
我々のモデルは水中環境における視覚言語アプリケーションのための新しいベンチマークを設定している。
論文 参考訳(メタデータ) (2025-02-03T19:56:16Z) - FAFA: Frequency-Aware Flow-Aided Self-Supervision for Underwater Object Pose Estimation [65.01601309903971]
無人水中車両(UUV)の6次元ポーズ推定のための周波数認識フロー支援フレームワークであるFAFAを紹介する。
我々のフレームワークは、3DモデルとRGB画像のみに依存しており、実際のポーズアノテーションや奥行きのような非モダリティデータの必要性を軽減しています。
本研究では,一般的な水中オブジェクトポーズベンチマークにおけるFAFAの有効性を評価し,最先端手法と比較して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-25T03:54:01Z) - Diving into Underwater: Segment Anything Model Guided Underwater Salient Instance Segmentation and A Large-scale Dataset [60.14089302022989]
水中視覚タスクは複雑な水中状況のため、しばしばセグメンテーションの精度が低い。
第1次大規模水中塩分分節データセット(USIS10K)を構築した。
本研究では,水中ドメインに特化してセグメンツ・ア・シング・モデル(USIS-SAM)に基づく水中塩分・インスタンス・アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-10T06:17:33Z) - Atlantis: Enabling Underwater Depth Estimation with Stable Diffusion [30.122666238416716]
正確な地球深度データを用いて水中画像を生成する新しいパイプラインを提案する。
このアプローチは、水中深度推定のための教師付きモデルのトレーニングを容易にする。
我々は、特別に作成された水中、深度、テキストデータ三重項に基づいて訓練された独自のDepth2Underwater ControlNetを導入する。
論文 参考訳(メタデータ) (2023-12-19T08:56:33Z) - A deep learning approach for marine snow synthesis and removal [55.86191108738564]
本稿では,深層学習技術を用いた海洋雪の干渉低減手法を提案する。
まず,GAN(Generative Adversarial Network)モデルを用いて,現実的な積雪サンプルを合成する。
次に、画像から画像への変換タスクとして海洋性除雪を行うためにU-Netモデルを訓練する。
論文 参考訳(メタデータ) (2023-11-27T07:19:41Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - BrackishMOT: The Brackish Multi-Object Tracking Dataset [20.52569822945148]
濁った環境で捕獲された水中マルチオブジェクト追跡(MOT)データセットは公開されていない。
BrackishMOTは、野生で捕獲された98のシークエンスから構成される。新しいデータセットに加えて、最先端のトラッカーをトレーニングしてベースライン結果を示す。
トレーニング中に合成データを含めることの効果を分析し,実際の水中トレーニングデータと合成水中トレーニングデータを組み合わせることで,追跡性能が向上することを示した。
論文 参考訳(メタデータ) (2023-02-21T13:02:36Z) - Bridging the Gap to Real-World Object-Centric Learning [66.55867830853803]
自己教師付き方法で訓練されたモデルから特徴を再構成することは、完全に教師なしの方法でオブジェクト中心表現が生じるための十分な訓練信号であることを示す。
我々のアプローチであるDINOSAURは、シミュレーションデータ上で既存のオブジェクト中心学習モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-09-29T15:24:47Z) - Overcoming Annotation Bottlenecks in Underwater Fish Segmentation: A Robust Self-Supervised Learning Approach [3.0516727053033392]
本稿では,Deep Learning を用いた魚のセグメンテーションのための自己教師型学習手法を提案する。
手動のアノテーションを使わずにトレーニングされた我々のモデルは、拡張ビューにまたがる特徴を整列することで、堅牢で一般化可能な表現を学習する。
DeepFish、Seagrass、YouTube-VOSの3つの挑戦的な水中ビデオデータセットでその効果を実証する。
論文 参考訳(メタデータ) (2022-06-11T01:20:48Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - A Realistic Fish-Habitat Dataset to Evaluate Algorithms for Underwater
Visual Analysis [2.6476746128312194]
我々は、DeepFishを大規模データセットでベンチマークスイートとして提示し、いくつかのコンピュータビジョンタスクのためのメソッドをトレーニングし、テストする。
このデータセットは、熱帯オーストラリアの海洋環境にある20の温帯生物から採取された約4万枚の画像で構成されている。
実験では,データセットの特徴を詳細に分析し,いくつかの最先端手法の性能評価を行った。
論文 参考訳(メタデータ) (2020-08-28T12:20:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。