論文の概要: An AI-Powered Autonomous Underwater System for Sea Exploration and Scientific Research
- arxiv url: http://arxiv.org/abs/2512.07652v1
- Date: Mon, 08 Dec 2025 15:45:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.94979
- Title: An AI-Powered Autonomous Underwater System for Sea Exploration and Scientific Research
- Title(参考訳): 海洋探査・科学研究のためのAIを利用した自律型水中システム
- Authors: Hamad Almazrouei, Mariam Al Nasseri, Maha Alzaabi,
- Abstract要約: 伝統的な海洋探査は、極端な条件、限られた視認性、高いコストのために重大な課題に直面している。
本稿では,これらの制約を克服するために,AIを活用した自律水中車両(AUV)システムを提案する。
このシステムは、リアルタイムオブジェクト検出のためのYOLOv12 Nano、特徴抽出のためのConvolutional Neural Network (CNN) (ResNet50)、海洋オブジェクトのグループ化のためのK-Means++クラスタリングを統合する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional sea exploration faces significant challenges due to extreme conditions, limited visibility, and high costs, resulting in vast unexplored ocean regions. This paper presents an innovative AI-powered Autonomous Underwater Vehicle (AUV) system designed to overcome these limitations by automating underwater object detection, analysis, and reporting. The system integrates YOLOv12 Nano for real-time object detection, a Convolutional Neural Network (CNN) (ResNet50) for feature extraction, Principal Component Analysis (PCA) for dimensionality reduction, and K-Means++ clustering for grouping marine objects based on visual characteristics. Furthermore, a Large Language Model (LLM) (GPT-4o Mini) is employed to generate structured reports and summaries of underwater findings, enhancing data interpretation. The system was trained and evaluated on a combined dataset of over 55,000 images from the DeepFish and OzFish datasets, capturing diverse Australian marine environments. Experimental results demonstrate the system's capability to detect marine objects with a mAP@0.5 of 0.512, a precision of 0.535, and a recall of 0.438. The integration of PCA effectively reduced feature dimensionality while preserving 98% variance, facilitating K-Means clustering which successfully grouped detected objects based on visual similarities. The LLM integration proved effective in generating insightful summaries of detections and clusters, supported by location data. This integrated approach significantly reduces the risks associated with human diving, increases mission efficiency, and enhances the speed and depth of underwater data analysis, paving the way for more effective scientific research and discovery in challenging marine environments.
- Abstract(参考訳): 伝統的な海洋探査は、極端な条件、限られた視認性、高いコストのために重大な課題に直面しており、探索されていない広大な海洋地域を生み出している。
本稿では,水中物体検出,解析,報告の自動化により,これらの制約を克服する,革新的なAIによる自律水中車両(AUV)システムを提案する。
このシステムは、リアルタイムオブジェクト検出のためのYOLOv12 Nano、特徴抽出のための畳み込みニューラルネットワーク(CNN)(ResNet50)、次元減少のための主成分分析(PCA)、視覚特性に基づいた海洋オブジェクトのグループ化のためのK-Means++クラスタリングを統合する。
さらに,Large Language Model (LLM) (GPT-4o Mini) を用いて水中の発見の構造化された報告と要約を生成し,データ解釈を強化する。
このシステムは、DeepFishとOzFishのデータセットから55,000以上の画像を組み合わせて訓練され、評価された。
実験の結果、システムは0.512のmAP@0.5、0.535の精度、0.438のリコールで海洋物を検出する能力を示した。
PCAの統合は、98%のばらつきを保ちながら特徴次元を効果的に低減し、視覚的類似性に基づいて検出対象をグループ化するK-Meansクラスタリングを容易にした。
LLM統合は、位置データによって支えられた検出とクラスタの洞察に富んだ要約を生成するのに有効であることが証明された。
この統合されたアプローチは、人間の潜水に関連するリスクを著しく低減し、ミッション効率を高め、水中データ分析のスピードと深さを高め、挑戦する海洋環境におけるより効果的な科学的研究と発見の道を開く。
関連論文リスト
- Neptune-X: Active X-to-Maritime Generation for Universal Maritime Object Detection [54.1960918379255]
Neptune-Xは、海洋オブジェクト検出のためのデータ中心の生成-選択フレームワークである。
X-to-Maritime(X-to-Maritime)は、多様で現実的な海洋シーンを合成する多モード条件生成モデルである。
提案手法は,海上シーン合成における新しいベンチマークを設定し,検出精度を大幅に向上させる。
論文 参考訳(メタデータ) (2025-09-25T04:59:02Z) - Real-Time Fish Detection in Indonesian Marine Ecosystems Using Lightweight YOLOv10-nano Architecture [0.0]
本研究では,インドネシア海域におけるリアルタイム海洋魚検出のための最先端の深層学習モデルであるYOLOv10-nanoの実装について検討した。
YOLOv10のアーキテクチャは、CSPNetバックボーン、機能融合のためのPAN、ピラミッド空間注意ブロックなどの改善を特徴とし、効率的で正確なオブジェクト検出を可能にしている。
その結果, YOLOv10-nano は 0.966 の mAP50 と 0.606 の mAP50:95 で高い検出精度を達成し, 計算要求の低さを維持した。
論文 参考訳(メタデータ) (2025-09-22T07:02:48Z) - Improve Underwater Object Detection through YOLOv12 Architecture and Physics-informed Augmentation [0.20767168898581637]
水中物体検出は、自律航法、環境モニタリング、海洋探査に不可欠である。
現在の手法は精度と計算効率のバランスをとるが、低視認性条件下でのリアルタイムのデプロイには困難がある。
本研究は, YOLOv12アーキテクチャと物理インフォームド・オービメンテーション技術の統合による水中検出を推し進めるものである。
論文 参考訳(メタデータ) (2025-06-30T04:06:50Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - ReconMOST: Multi-Layer Sea Temperature Reconstruction with Observations-Guided Diffusion [48.540756751934836]
ReconMOSTは多層水温再構築のためのデータ駆動誘導拡散モデルフレームワークである。
提案手法はMLベースのSST再構成をグローバルな多層設定に拡張し,92.5%以上の欠落データを処理する。
論文 参考訳(メタデータ) (2025-06-12T06:27:22Z) - MID: A Comprehensive Shore-Based Dataset for Multi-Scale Dense Ship Occlusion and Interaction Scenarios [10.748210940033484]
海上航行行動データセット(MID)は、複雑な海上環境における船舶検出の課題に対処するために設計されている。
MIDには5,673の画像と135,884の微調整されたターゲットインスタンスが含まれており、教師付き学習と半教師付き学習の両方をサポートしている。
MIDの画像は、43の水域を横断する現実世界のナビゲーションの高精細なビデオクリップから得られたもので、天候や照明条件も様々である。
論文 参考訳(メタデータ) (2024-12-08T09:34:23Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - Learning-based estimation of in-situ wind speed from underwater
acoustics [58.293528982012255]
水中音響から風速時系列を検索するための深層学習手法を提案する。
我々のアプローチは、事前の物理知識と計算効率の両面から恩恵を受けるために、データ同化と学習ベースのフレームワークをブリッジする。
論文 参考訳(メタデータ) (2022-08-18T15:27:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。