論文の概要: Virtual Underwater Datasets for Autonomous Inspections
- arxiv url: http://arxiv.org/abs/2209.06013v2
- Date: Wed, 14 Sep 2022 11:50:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 11:03:56.551893
- Title: Virtual Underwater Datasets for Autonomous Inspections
- Title(参考訳): 自律検査のための仮想水中データセット
- Authors: Ioannis Polymenis, Maryam Haroutunian, Rose Norman, David Trodden
- Abstract要約: 本研究では,実験室で収集したアイテムの写真から,ベスポークデータセットを構築した。
GAN(Generative Adversarial Networks)は、実験対象のデータセットを水中ドメインに変換するために使用される。
その結果得られた画像は、実際の水中の船体画像と比較すると、実際の水中環境とよく似ている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater Vehicles have become more sophisticated, driven by the off-shore
sector and the scientific community's rapid advancements in underwater
operations. Notably, many underwater tasks, including the assessment of subsea
infrastructure, are performed with the assistance of Autonomous Underwater
Vehicles (AUVs). There have been recent breakthroughs in Artificial
Intelligence (AI) and, notably, Deep Learning (DL) models and applications,
which have widespread usage in a variety of fields, including aerial unmanned
vehicles, autonomous car navigation, and other applications. However, they are
not as prevalent in underwater applications due to the difficulty of obtaining
underwater datasets for a specific application. In this sense, the current
study utilises recent advancements in the area of DL to construct a bespoke
dataset generated from photographs of items captured in a laboratory
environment. Generative Adversarial Networks (GANs) were utilised to translate
the laboratory object dataset into the underwater domain by combining the
collected images with photographs containing the underwater environment. The
findings demonstrated the feasibility of creating such a dataset, since the
resulting images closely resembled the real underwater environment when
compared with real-world underwater ship hull images. Therefore, the artificial
datasets of the underwater environment can overcome the difficulties arising
from the limited access to real-world underwater images and are used to enhance
underwater operations through underwater object image classification and
detection.
- Abstract(参考訳): 水中車両は、オフショア部門と科学コミュニティの水中運用の急速な進歩によって、より洗練されたものになっている。
特に、海底インフラの評価を含む多くの水中作業は、自律型水中車両(AUV)の助けを借りて行われる。
人工知能(AI)や、特にDeep Learning(DL)モデルやアプリケーションは、無人航空機、自律走行車ナビゲーションなど、さまざまな分野で広く利用されている。
しかし、特定のアプリケーションで水中データセットを取得するのが困難であるため、水中アプリケーションではあまり普及していない。
この意味で,本研究では, 実験室で収集したアイテムの写真から生成したベスポークデータセットを構築するために, DL領域の最近の進歩を活用している。
ジェネレーティブ・Adversarial Networks (GAN) を用いて, 収集した画像と水中環境を含む写真を組み合わせて, 実験対象のデータセットを水中領域に翻訳した。
その結果、実際の水中船体画像と比較すると、画像は実際の水中環境とよく似ているため、このようなデータセットを作成する可能性を示した。
したがって、水中環境の人工データセットは、現実世界の水中画像へのアクセス制限による困難を克服することができ、水中物体の分類と検出を通じて水中操作を強化するために使用される。
関連論文リスト
- UW-SDF: Exploiting Hybrid Geometric Priors for Neural SDF Reconstruction from Underwater Multi-view Monocular Images [63.32490897641344]
ニューラルSDFに基づく多視点水中画像から対象物を再構成するフレームワークを提案する。
再建過程を最適化するためのハイブリッドな幾何学的先行手法を導入し、神経SDF再建の質と効率を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-10T16:33:56Z) - Towards an Autonomous Surface Vehicle Prototype for Artificial Intelligence Applications of Water Quality Monitoring [68.41400824104953]
本稿では,人工知能アルゴリズムの利用と水質モニタリングのための高感度センシング技術に対処する車両プロトタイプを提案する。
車両には水質パラメータと水深を測定するための高品質なセンサーが装備されている。
ステレオカメラにより、実際の環境でのマクロプラスチックの検出と検出も可能である。
論文 参考訳(メタデータ) (2024-10-08T10:35:32Z) - FAFA: Frequency-Aware Flow-Aided Self-Supervision for Underwater Object Pose Estimation [65.01601309903971]
無人水中車両(UUV)の6次元ポーズ推定のための周波数認識フロー支援フレームワークであるFAFAを紹介する。
我々のフレームワークは、3DモデルとRGB画像のみに依存しており、実際のポーズアノテーションや奥行きのような非モダリティデータの必要性を軽減しています。
本研究では,一般的な水中オブジェクトポーズベンチマークにおけるFAFAの有効性を評価し,最先端手法と比較して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-25T03:54:01Z) - Enhancing Underwater Imaging with 4-D Light Fields: Dataset and Method [77.80712860663886]
4次元光場(LF)は、光吸収、散乱、その他の課題に悩まされる水中イメージングを強化する。
水中4次元LF画像強調と深度推定のためのプログレッシブフレームワークを提案する。
学習手法の定量的評価と教師あり訓練のための,最初の4次元LFに基づく水中画像データセットを構築した。
論文 参考訳(メタデータ) (2024-08-30T15:06:45Z) - Diving into Underwater: Segment Anything Model Guided Underwater Salient Instance Segmentation and A Large-scale Dataset [60.14089302022989]
水中視覚タスクは複雑な水中状況のため、しばしばセグメンテーションの精度が低い。
第1次大規模水中塩分分節データセット(USIS10K)を構築した。
本研究では,水中ドメインに特化してセグメンツ・ア・シング・モデル(USIS-SAM)に基づく水中塩分・インスタンス・アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-10T06:17:33Z) - Physics-Inspired Synthesized Underwater Image Dataset [9.959844922120528]
PHISWIDは、物理にインスパイアされた画像合成による水中画像処理の強化に適したデータセットである。
以上の結果から,PHISWIDでトレーニングを行う場合の基本的U-Netアーキテクチャでさえ,水中画像強調において既存の手法よりも大幅に優れていたことが判明した。
我々はPHISWIDを公開し、水中イメージング技術の進歩に重要なリソースを提供する。
論文 参考訳(メタデータ) (2024-04-05T10:23:10Z) - Atlantis: Enabling Underwater Depth Estimation with Stable Diffusion [30.122666238416716]
正確な地球深度データを用いて水中画像を生成する新しいパイプラインを提案する。
このアプローチは、水中深度推定のための教師付きモデルのトレーニングを容易にする。
我々は、特別に作成された水中、深度、テキストデータ三重項に基づいて訓練された独自のDepth2Underwater ControlNetを導入する。
論文 参考訳(メタデータ) (2023-12-19T08:56:33Z) - An Efficient Detection and Control System for Underwater Docking using
Machine Learning and Realistic Simulation: A Comprehensive Approach [5.039813366558306]
この研究は、水中ドッキングの検出と分類を行うために異なるディープラーニングアーキテクチャと比較する。
GAN(Generative Adversarial Network)は画像から画像への変換に用いられ、ガゼボのシミュレーション画像を水中画像に変換する。
その結果,水中の潮流によらず,高濁度シナリオでは20%の改善が見られた。
論文 参考訳(メタデータ) (2023-11-02T18:10:20Z) - Underwater Light Field Retention : Neural Rendering for Underwater
Imaging [6.22867695581195]
水中画像レンダリングは、指定されたクリーンな画像から本物の水中画像を生成することを目的としている。
本稿では,UWNR(Underwater Neural Rendering)と呼ばれる水中画像のニューラルネットワークレンダリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-21T14:22:05Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Deep Sea Robotic Imaging Simulator [6.2122699483618]
海洋の最大の部分である深海は、現在もほとんど未調査のままである。
深海画像は浅い海域で撮影された画像とは大きく異なり、この地域はコミュニティからはあまり注目されなかった。
本稿では,空気中のテクスチャと深度情報を入力として利用する物理モデルに基づく画像シミュレーションソリューションを提案する。
論文 参考訳(メタデータ) (2020-06-27T16:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。