論文の概要: Deep Learning-Enhanced Visual Monitoring in Hazardous Underwater Environments with a Swarm of Micro-Robots
- arxiv url: http://arxiv.org/abs/2503.02752v1
- Date: Tue, 04 Mar 2025 16:19:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:15:02.087868
- Title: Deep Learning-Enhanced Visual Monitoring in Hazardous Underwater Environments with a Swarm of Micro-Robots
- Title(参考訳): マイクロロボット群を用いた水中環境の深層学習による視覚モニタリング
- Authors: Shuang Chen, Yifeng He, Barry Lennox, Farshad Arvin, Amir Atapour-Abarghouei,
- Abstract要約: 水中貯蔵施設のような極端な環境の監視と探索は、コストが高く、労働集約的で危険である。
本稿では,複数時間深層学習ネットワークを統合し,協調予測と画像再構成を行う新しい手法を提案する。
その結果,座標予測精度と画像の集合性が非常に高く,本手法の現実的適用性を示している。
- 参考スコア(独自算出の注目度): 8.38975683806005
- License:
- Abstract: Long-term monitoring and exploration of extreme environments, such as underwater storage facilities, is costly, labor-intensive, and hazardous. Automating this process with low-cost, collaborative robots can greatly improve efficiency. These robots capture images from different positions, which must be processed simultaneously to create a spatio-temporal model of the facility. In this paper, we propose a novel approach that integrates data simulation, a multi-modal deep learning network for coordinate prediction, and image reassembly to address the challenges posed by environmental disturbances causing drift and rotation in the robots' positions and orientations. Our approach enhances the precision of alignment in noisy environments by integrating visual information from snapshots, global positional context from masks, and noisy coordinates. We validate our method through extensive experiments using synthetic data that simulate real-world robotic operations in underwater settings. The results demonstrate very high coordinate prediction accuracy and plausible image assembly, indicating the real-world applicability of our approach. The assembled images provide clear and coherent views of the underwater environment for effective monitoring and inspection, showcasing the potential for broader use in extreme settings, further contributing to improved safety, efficiency, and cost reduction in hazardous field monitoring. Code is available on https://github.com/ChrisChen1023/Micro-Robot-Swarm.
- Abstract(参考訳): 水中の貯蔵施設のような極端な環境の長期監視と探査は、コストが高く、労働集約的で危険である。
このプロセスを低コストでコラボレーティブなロボットで自動化することは、効率を大幅に向上させる。
これらのロボットは異なる位置から画像をキャプチャし、同時に処理して施設の時空間モデルを作成する必要がある。
本稿では,データシミュレーション,座標予測のためのマルチモーダル深層学習ネットワーク,画像再構成を統合し,ロボットの位置や方向のドリフトや回転を引き起こす環境障害による課題に対処する手法を提案する。
提案手法は、スナップショットからの視覚情報、マスクからのグローバル位置コンテキスト、ノイズ座標を統合することで、ノイズの多い環境におけるアライメントの精度を高める。
本研究では,水中環境における実世界のロボット操作をシミュレートする合成データを用いた広範囲な実験により,本手法の有効性を検証した。
その結果,座標予測精度と画像の集合性が非常に高く,本手法の現実的適用性を示している。
集められた画像は、効果的な監視と検査のために水中環境の明瞭で一貫性のあるビューを提供し、極端な設定で広く使用される可能性を示し、さらに有害なフィールドモニタリングの安全性、効率、コスト削減に寄与する。
コードはhttps://github.com/ChrisChen1023/Micro-Robot-Swarmで入手できる。
関連論文リスト
- Stonefish: Supporting Machine Learning Research in Marine Robotics [5.021710505685786]
本稿では,海洋ロボティクスソリューションの開発とテストを支援するオープンソースプラットフォームであるStonefishシミュレータの最近の拡張を強調した。
主なアップデートには、視覚光通信、テザリング操作のサポート、スラスタモデリングの改善、より柔軟な流体力学、ソナー精度の向上などが含まれる。
論文 参考訳(メタデータ) (2025-02-17T15:13:41Z) - Towards Real-Time 2D Mapping: Harnessing Drones, AI, and Computer Vision for Advanced Insights [0.0]
本稿では、ドローン画像と機械学習とコンピュータビジョンを組み合わせることで、様々な地形における速度、精度、適応性の課題を克服する高度マッピングシステムを提案する。
このシステムは、最小レイテンシでシームレスで高解像度の地図を生成し、防衛作戦において戦略的優位性を提供する。
論文 参考訳(メタデータ) (2024-12-28T16:47:18Z) - COPILOT: Human-Environment Collision Prediction and Localization from
Egocentric Videos [62.34712951567793]
エゴセントリックな観測から人間と環境の衝突を予測する能力は、VR、AR、ウェアラブルアシストロボットなどのアプリケーションにおける衝突回避を可能にするために不可欠である。
本稿では、ボディマウントカメラから撮影した多視点エゴセントリックビデオから、多様な環境における衝突を予測するという課題を紹介する。
衝突予測と局所化を同時に行うために,COPILOTと呼ばれるトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2022-10-04T17:49:23Z) - Robot Active Neural Sensing and Planning in Unknown Cluttered
Environments [0.0]
未知の乱雑な環境でのアクティブなセンシングと計画は、ホームサービス、探索と救助、狭い通行検査、医療支援を提供するロボットにとって、オープンな課題である。
本研究は,ロボットマニピュレータの動力学的に実現可能な視点列を手動カメラで生成し,基礎環境の再構築に必要な観測回数を最小化するための能動型ニューラルセンシング手法を提案する。
我々のフレームワークは視覚的RGBD観測を積極的に収集し、それらをシーン表現に集約し、環境との不要なロボットの相互作用を避けるためにオブジェクト形状推論を行う。
論文 参考訳(メタデータ) (2022-08-23T16:56:54Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - 6D Camera Relocalization in Visually Ambiguous Extreme Environments [79.68352435957266]
本研究では,深海や地球外地形などの極端な環境下で得られた画像の列から,カメラのポーズを確実に推定する手法を提案する。
本手法は,室内ベンチマーク (7-Scenes データセット) における最先端手法と同等の性能を20%のトレーニングデータで達成する。
論文 参考訳(メタデータ) (2022-07-13T16:40:02Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Learning a State Representation and Navigation in Cluttered and Dynamic
Environments [6.909283975004628]
本稿では,四足ロボットによる局所ナビゲーションを実現するための学習ベースのパイプラインを提案する。
ロボットは、環境を明示的にマッピングすることなく、奥行きカメラのフレームに基づいて、安全な場所へ移動することができる。
本システムでは,ノイズの多い奥行き画像の処理が可能であり,訓練中の動的障害物を回避でき,局所的な空間意識を付与できることを示す。
論文 参考訳(メタデータ) (2021-03-07T13:19:06Z) - Indoor Point-to-Point Navigation with Deep Reinforcement Learning and
Ultra-wideband [1.6799377888527687]
移動障害や非視線発生はノイズや信頼性の低い信号を生成する。
深部強化学習(RL)で学習した電力効率のよい局所プランナーが,ノイズショートレンジ誘導システムの完全解法として頑健かつ弾力性を持つことを示す。
この結果から, 計算効率のよいエンドツーエンドポリシは, 堅牢でスケーラブルで, 最先端の低コストナビゲーションシステムを実現することができることがわかった。
論文 参考訳(メタデータ) (2020-11-18T12:30:36Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。