論文の概要: Virtual Underwater Datasets for Autonomous Inspections
- arxiv url: http://arxiv.org/abs/2209.06013v2
- Date: Wed, 14 Sep 2022 11:50:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 11:03:56.551893
- Title: Virtual Underwater Datasets for Autonomous Inspections
- Title(参考訳): 自律検査のための仮想水中データセット
- Authors: Ioannis Polymenis, Maryam Haroutunian, Rose Norman, David Trodden
- Abstract要約: 本研究では,実験室で収集したアイテムの写真から,ベスポークデータセットを構築した。
GAN(Generative Adversarial Networks)は、実験対象のデータセットを水中ドメインに変換するために使用される。
その結果得られた画像は、実際の水中の船体画像と比較すると、実際の水中環境とよく似ている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater Vehicles have become more sophisticated, driven by the off-shore
sector and the scientific community's rapid advancements in underwater
operations. Notably, many underwater tasks, including the assessment of subsea
infrastructure, are performed with the assistance of Autonomous Underwater
Vehicles (AUVs). There have been recent breakthroughs in Artificial
Intelligence (AI) and, notably, Deep Learning (DL) models and applications,
which have widespread usage in a variety of fields, including aerial unmanned
vehicles, autonomous car navigation, and other applications. However, they are
not as prevalent in underwater applications due to the difficulty of obtaining
underwater datasets for a specific application. In this sense, the current
study utilises recent advancements in the area of DL to construct a bespoke
dataset generated from photographs of items captured in a laboratory
environment. Generative Adversarial Networks (GANs) were utilised to translate
the laboratory object dataset into the underwater domain by combining the
collected images with photographs containing the underwater environment. The
findings demonstrated the feasibility of creating such a dataset, since the
resulting images closely resembled the real underwater environment when
compared with real-world underwater ship hull images. Therefore, the artificial
datasets of the underwater environment can overcome the difficulties arising
from the limited access to real-world underwater images and are used to enhance
underwater operations through underwater object image classification and
detection.
- Abstract(参考訳): 水中車両は、オフショア部門と科学コミュニティの水中運用の急速な進歩によって、より洗練されたものになっている。
特に、海底インフラの評価を含む多くの水中作業は、自律型水中車両(AUV)の助けを借りて行われる。
人工知能(AI)や、特にDeep Learning(DL)モデルやアプリケーションは、無人航空機、自律走行車ナビゲーションなど、さまざまな分野で広く利用されている。
しかし、特定のアプリケーションで水中データセットを取得するのが困難であるため、水中アプリケーションではあまり普及していない。
この意味で,本研究では, 実験室で収集したアイテムの写真から生成したベスポークデータセットを構築するために, DL領域の最近の進歩を活用している。
ジェネレーティブ・Adversarial Networks (GAN) を用いて, 収集した画像と水中環境を含む写真を組み合わせて, 実験対象のデータセットを水中領域に翻訳した。
その結果、実際の水中船体画像と比較すると、画像は実際の水中環境とよく似ているため、このようなデータセットを作成する可能性を示した。
したがって、水中環境の人工データセットは、現実世界の水中画像へのアクセス制限による困難を克服することができ、水中物体の分類と検出を通じて水中操作を強化するために使用される。
関連論文リスト
- Atlantis: Enabling Underwater Depth Estimation with Stable Diffusion [30.122666238416716]
正確な地球深度データを用いて水中画像を生成する新しいパイプラインを提案する。
このアプローチは、水中深度推定のための教師付きモデルのトレーニングを容易にする。
我々は、特別に作成された水中、深度、テキストデータ三重項に基づいて訓練された独自のDepth2Underwater ControlNetを導入する。
論文 参考訳(メタデータ) (2023-12-19T08:56:33Z) - An Efficient Detection and Control System for Underwater Docking using
Machine Learning and Realistic Simulation: A Comprehensive Approach [5.039813366558306]
この研究は、水中ドッキングの検出と分類を行うために異なるディープラーニングアーキテクチャと比較する。
GAN(Generative Adversarial Network)は画像から画像への変換に用いられ、ガゼボのシミュレーション画像を水中画像に変換する。
その結果,水中の潮流によらず,高濁度シナリオでは20%の改善が見られた。
論文 参考訳(メタデータ) (2023-11-02T18:10:20Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - Efficient Large-scale AUV-based Visual Seafloor Mapping [6.7864586321550595]
海底画像と視覚マッピングの最近の進歩を取り入れ,海底のヘクタールの自動3次元再構築を支援するシステムを提案する。
我々のアプローチは,画像の省略や潜水時間制限の有効利用のために,弱い登録領域の検出と再考が困難である。
提案システムは, 実環境下でのロバスト性および実用性を実証し, いくつかの調査巡航において広範囲に検証され, 評価されている。
論文 参考訳(メタデータ) (2023-08-11T14:24:03Z) - Towards Generating Large Synthetic Phytoplankton Datasets for Efficient
Monitoring of Harmful Algal Blooms [77.25251419910205]
有害な藻類(HAB)は養殖農場で重大な魚死を引き起こす。
現在、有害藻や他の植物プランクトンを列挙する標準的な方法は、顕微鏡でそれらを手動で観察し数えることである。
合成画像の生成にはGAN(Generative Adversarial Networks)を用いる。
論文 参考訳(メタデータ) (2022-08-03T20:15:55Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - Underwater Light Field Retention : Neural Rendering for Underwater
Imaging [6.22867695581195]
水中画像レンダリングは、指定されたクリーンな画像から本物の水中画像を生成することを目的としている。
本稿では,UWNR(Underwater Neural Rendering)と呼ばれる水中画像のニューラルネットワークレンダリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-21T14:22:05Z) - Domain Adaptation for Underwater Image Enhancement [51.71570701102219]
本稿では,ドメイン間およびドメイン内ギャップを最小限に抑えるために,新しい2相水中ドメイン適応ネットワーク(TUDA)を提案する。
第1段階では、入力画像のリアリズムを強化する翻訳部と、拡張部とを含む新しい二重配向ネットワークを設計する。
第2フェーズでは、ランクベースの水中品質評価手法が組み込まれている強化画像の評価品質に応じて、実データを簡単に分類する。
論文 参考訳(メタデータ) (2021-08-22T06:38:19Z) - Underwater Image Restoration via Contrastive Learning and a Real-world
Dataset [59.35766392100753]
本稿では,教師なし画像から画像への翻訳フレームワークに基づく水中画像復元手法を提案する。
提案手法は, 生画像と復元画像の相互情報を最大化するために, コントラスト学習と生成敵ネットワークを利用した。
論文 参考訳(メタデータ) (2021-06-20T16:06:26Z) - Deep Sea Robotic Imaging Simulator [6.2122699483618]
海洋の最大の部分である深海は、現在もほとんど未調査のままである。
深海画像は浅い海域で撮影された画像とは大きく異なり、この地域はコミュニティからはあまり注目されなかった。
本稿では,空気中のテクスチャと深度情報を入力として利用する物理モデルに基づく画像シミュレーションソリューションを提案する。
論文 参考訳(メタデータ) (2020-06-27T16:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。