論文の概要: A Real-Time Framework for Domain-Adaptive Underwater Object Detection with Image Enhancement
- arxiv url: http://arxiv.org/abs/2403.19079v1
- Date: Thu, 28 Mar 2024 01:00:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 17:42:20.338900
- Title: A Real-Time Framework for Domain-Adaptive Underwater Object Detection with Image Enhancement
- Title(参考訳): 画像強調によるドメイン適応型水中物体検出のためのリアルタイムフレームワーク
- Authors: Junjie Wen, Jinqiang Cui, Benyun Zhao, Bingxin Han, Xuchen Liu, Zhi Gao, Ben M. Chen,
- Abstract要約: EnyoLOは、水中画像強調(UIE)と物体検出(UOD)を同時に行うために設計された統合リアルタイムフレームワークである。
このフレームワークはUIEタスクとUDDタスクの両方でSOTA(State-of-the-art)性能を実現するが、異なる水中シナリオに適用した場合にも優れた適応性を示す。
- 参考スコア(独自算出の注目度): 18.936260846385444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, significant progress has been made in the field of underwater image enhancement (UIE). However, its practical utility for high-level vision tasks, such as underwater object detection (UOD) in Autonomous Underwater Vehicles (AUVs), remains relatively unexplored. It may be attributed to several factors: (1) Existing methods typically employ UIE as a pre-processing step, which inevitably introduces considerable computational overhead and latency. (2) The process of enhancing images prior to training object detectors may not necessarily yield performance improvements. (3) The complex underwater environments can induce significant domain shifts across different scenarios, seriously deteriorating the UOD performance. To address these challenges, we introduce EnYOLO, an integrated real-time framework designed for simultaneous UIE and UOD with domain-adaptation capability. Specifically, both the UIE and UOD task heads share the same network backbone and utilize a lightweight design. Furthermore, to ensure balanced training for both tasks, we present a multi-stage training strategy aimed at consistently enhancing their performance. Additionally, we propose a novel domain-adaptation strategy to align feature embeddings originating from diverse underwater environments. Comprehensive experiments demonstrate that our framework not only achieves state-of-the-art (SOTA) performance in both UIE and UOD tasks, but also shows superior adaptability when applied to different underwater scenarios. Our efficiency analysis further highlights the substantial potential of our framework for onboard deployment.
- Abstract(参考訳): 近年,水中画像強調(UIE)分野において大きな進展が見られた。
しかし、自律水中車両(AUV)における水中物体検出(UOD)のような高レベル視覚タスクの実用性は、いまだに明らかにされていない。
1) 既存のメソッドは通常、前処理のステップとしてUIEを使用し、必然的にかなりの計算オーバーヘッドとレイテンシをもたらす。
2) 物体検出装置の訓練に先立って画像の強調を行うプロセスは, 必ずしも性能改善をもたらすとは限らない。
3) 複雑な水中環境は異なるシナリオ間で大きなドメインシフトを引き起こし, UOD性能を著しく低下させる。
これらの課題に対処するため,ドメイン適応機能を備えたUIEとUODを同時に行うように設計されたリアルタイムフレームワークであるEnYOLOを紹介した。
特にUIEとUODのタスクヘッドは同じネットワークバックボーンを共有し、軽量な設計を採用している。
さらに,両タスクのバランスの取れたトレーニングを確保するために,各タスクのパフォーマンスを継続的に向上することを目的としたマルチステージトレーニング戦略を提案する。
さらに,多様な水中環境から派生した特徴埋め込みを整列させる新しいドメイン適応手法を提案する。
総合的な実験により、我々のフレームワークはUIEタスクとUDDタスクの両方でSOTA(State-of-the-art)性能を達成するだけでなく、異なる水中シナリオに適用した場合にも優れた適応性を示す。
当社の効率分析では、オンボードデプロイメントにおけるフレームワークの実質的な可能性をさらに強調しています。
関連論文リスト
- Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - IA2U: A Transfer Plugin with Multi-Prior for In-Air Model to Underwater [18.491734287988304]
水中環境では、懸濁粒子濃度と濁度の変化が画像劣化を引き起こす。
室内モデルから水中アプリケーションへの変換に先駆けて, IA2U という名前のトランスファープラグインを開発した。
IA2Uと水中モデルを組み合わせることで,水中画像の強調や物体検出作業において優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2023-12-12T03:26:04Z) - ADOD: Adaptive Domain-Aware Object Detection with Residual Attention for
Underwater Environments [1.2624532490634643]
本研究では,水中物体検出における領域一般化のための新しいアプローチであるADODを提案する。
本手法は, 様々な水中環境下での堅牢性を確保するため, 多様な領域にまたがってモデルを一般化する能力を高める。
論文 参考訳(メタデータ) (2023-12-11T19:20:56Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Semantic-aware Texture-Structure Feature Collaboration for Underwater
Image Enhancement [58.075720488942125]
水中画像の強調は海洋工学や水生ロボット工学において重要な技術として注目されている。
我々は,高レベルな意味認識事前学習モデルと協調して,効率的でコンパクトな拡張ネットワークを開発する。
また,提案手法を水中の有意な物体検出タスクに適用し,高レベルの視覚タスクに適した意味認識能力を明らかにする。
論文 参考訳(メタデータ) (2022-11-19T07:50:34Z) - Underwater Object Classification and Detection: first results and open
challenges [1.1549572298362782]
本研究は,水中環境における物体検出の問題点を概観する。
我々は、従来の最先端(SOTA)アルゴリズムの欠点を分析し、定量化する。
論文 参考訳(メタデータ) (2022-01-04T04:54:08Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Domain Adaptation for Underwater Image Enhancement [51.71570701102219]
本稿では,ドメイン間およびドメイン内ギャップを最小限に抑えるために,新しい2相水中ドメイン適応ネットワーク(TUDA)を提案する。
第1段階では、入力画像のリアリズムを強化する翻訳部と、拡張部とを含む新しい二重配向ネットワークを設計する。
第2フェーズでは、ランクベースの水中品質評価手法が組み込まれている強化画像の評価品質に応じて、実データを簡単に分類する。
論文 参考訳(メタデータ) (2021-08-22T06:38:19Z) - Demonstration-efficient Inverse Reinforcement Learning in Procedurally
Generated Environments [137.86426963572214]
逆強化学習(Inverse Reinforcement Learning)は、専門家によるデモンストレーションから報酬関数を外挿する。
提案手法であるDE-AIRLは、実演効率が高く、完全手続き領域に一般化する報酬関数を外挿できることを示す。
論文 参考訳(メタデータ) (2020-12-04T11:18:02Z) - DARE: AI-based Diver Action Recognition System using Multi-Channel CNNs
for AUV Supervision [3.5584173777587935]
本稿では,認知自律走行バディデータセットに基づいて学習したダイバー動作認識システムDAREを提案する。
DAREは高速で、1つのステレオペアを分類するのに数ミリ秒しか必要としないため、リアルタイム水中実装に適している。
論文 参考訳(メタデータ) (2020-11-16T04:05:32Z) - SVAM: Saliency-guided Visual Attention Modeling by Autonomous Underwater
Robots [16.242924916178282]
本稿では,自律型水中ロボットの視覚的注意モデル(SVAM)に対する総合的なアプローチを提案する。
提案するSVAM-Netは,様々なスケールの深部視覚的特徴を統合し,自然水中画像に有効なSOD(Salient Object Detection)を実現する。
論文 参考訳(メタデータ) (2020-11-12T08:17:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。