論文の概要: DARE: AI-based Diver Action Recognition System using Multi-Channel CNNs
for AUV Supervision
- arxiv url: http://arxiv.org/abs/2011.07713v1
- Date: Mon, 16 Nov 2020 04:05:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 23:47:44.400521
- Title: DARE: AI-based Diver Action Recognition System using Multi-Channel CNNs
for AUV Supervision
- Title(参考訳): DARE:マルチチャネルCNNを用いたAIに基づくダイバーアクション認識システム
- Authors: Jing Yang and James P. Wilson and Shalabh Gupta
- Abstract要約: 本稿では,認知自律走行バディデータセットに基づいて学習したダイバー動作認識システムDAREを提案する。
DAREは高速で、1つのステレオペアを分類するのに数ミリ秒しか必要としないため、リアルタイム水中実装に適している。
- 参考スコア(独自算出の注目度): 3.5584173777587935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growth of sensing, control and robotic technologies, autonomous
underwater vehicles (AUVs) have become useful assistants to human divers for
performing various underwater operations. In the current practice, the divers
are required to carry expensive, bulky, and waterproof keyboards or
joystick-based controllers for supervision and control of AUVs. Therefore,
diver action-based supervision is becoming increasingly popular because it is
convenient, easier to use, faster, and cost effective. However, the various
environmental, diver and sensing uncertainties present underwater makes it
challenging to train a robust and reliable diver action recognition system. In
this regard, this paper presents DARE, a diver action recognition system, that
is trained based on Cognitive Autonomous Driving Buddy (CADDY) dataset, which
is a rich set of data containing images of different diver gestures and poses
in several different and realistic underwater environments. DARE is based on
fusion of stereo-pairs of camera images using a multi-channel convolutional
neural network supported with a systematically trained tree-topological deep
neural network classifier to enhance the classification performance. DARE is
fast and requires only a few milliseconds to classify one stereo-pair, thus
making it suitable for real-time underwater implementation. DARE is
comparatively evaluated against several existing classifier architectures and
the results show that DARE supersedes the performance of all classifiers for
diver action recognition in terms of overall as well as individual class
accuracies and F1-scores.
- Abstract(参考訳): センシング、制御、ロボット技術の発展に伴い、自律型水中車両(AUV)は、様々な水中操作を行うための人間のダイバーの補助となる。
現在の慣行では、ダイバーはAUVの監督と制御のために高価な防水キーボードやジョイスティックベースのコントローラーを運ぶ必要がある。
そのため、より便利で、使いやすく、より速く、費用対効果が高いため、ダイバーアクションベースの監視がますます普及している。
しかし,水中に存在する様々な環境,ダイバー,センシングの不確実性は,ロバストで信頼性の高いダイバー行動認識システムの訓練を困難にしている。
本稿では,多様なダイバージェスチャの画像と複数の異なる現実的な水中環境下でのポーズを含むリッチなデータセットであるCADDYデータセットに基づいて訓練されたダイバー行動認識システムDAREについて述べる。
DAREは、分類性能を高めるために、系統的に訓練されたツリートポロジカルディープニューラルネットワーク分類器でサポートされたマルチチャネル畳み込みニューラルネットワークを用いて、カメラ画像のステレオペアの融合に基づいている。
DAREは高速で、1つのステレオペアを分類するのに数ミリ秒しか必要としないため、リアルタイム水中実装に適している。
DAREは,複数の既存分類器アーキテクチャに対して相対的に評価され,この結果から,各クラス精度およびF1スコアとともに,各分類器の性能に取って代わる結果が得られた。
関連論文リスト
- A Real-Time Framework for Domain-Adaptive Underwater Object Detection with Image Enhancement [18.936260846385444]
EnyoLOは、水中画像強調(UIE)と物体検出(UOD)を同時に行うために設計された統合リアルタイムフレームワークである。
このフレームワークはUIEタスクとUDDタスクの両方でSOTA(State-of-the-art)性能を実現するが、異なる水中シナリオに適用した場合にも優れた適応性を示す。
論文 参考訳(メタデータ) (2024-03-28T01:00:08Z) - Interpretable Underwater Diver Gesture Recognition [0.0]
深層学習を用いた認知自律的な潜水行動データセットに基づいて学習した水中ジェスチャー認識システムを提案する。
また、XAI技術を用いてモデルの予測を可視化することにより、ジェスチャー認識システム解釈性を向上させる。
論文 参考訳(メタデータ) (2023-12-08T07:14:52Z) - An Efficient Detection and Control System for Underwater Docking using
Machine Learning and Realistic Simulation: A Comprehensive Approach [5.039813366558306]
この研究は、水中ドッキングの検出と分類を行うために異なるディープラーニングアーキテクチャと比較する。
GAN(Generative Adversarial Network)は画像から画像への変換に用いられ、ガゼボのシミュレーション画像を水中画像に変換する。
その結果,水中の潮流によらず,高濁度シナリオでは20%の改善が見られた。
論文 参考訳(メタデータ) (2023-11-02T18:10:20Z) - RAUNE-Net: A Residual and Attention-Driven Underwater Image Enhancement
Method [2.6645441842326756]
水中画像強調(UIE)は、水中環境の特徴的な性質のために課題を提起する。
本稿では、RAUNE-Netと呼ばれるより信頼性が高く合理的なUIEネットワークを提案する。
提案手法は,様々な実世界の水中画像に対して,有望な客観的性能と一貫した視覚的結果を得る。
論文 参考訳(メタデータ) (2023-11-01T03:00:07Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Learning to Walk Autonomously via Reset-Free Quality-Diversity [73.08073762433376]
品質多様性アルゴリズムは、多様かつ高いパフォーマンスのスキルからなる大規模で複雑な行動レパートリーを発見することができる。
既存のQDアルゴリズムは、手動による人間の監督と介入を必要とするエピソードリセットと同様に、多数の評価を必要とする。
本稿では,オープンエンド環境におけるロボットの自律学習に向けたステップとして,リセットフリー品質多様性最適化(RF-QD)を提案する。
論文 参考訳(メタデータ) (2022-04-07T14:07:51Z) - One to Many: Adaptive Instrument Segmentation via Meta Learning and
Dynamic Online Adaptation in Robotic Surgical Video [71.43912903508765]
MDALは、ロボット支援手術における機器セグメンテーションのための動的オンライン適応学習スキームです。
ビデオ固有のメタ学習パラダイムを通じて、楽器の一般的な知識と高速適応能力を学ぶ。
2つのデータセットで他の最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-03-24T05:02:18Z) - SVAM: Saliency-guided Visual Attention Modeling by Autonomous Underwater
Robots [16.242924916178282]
本稿では,自律型水中ロボットの視覚的注意モデル(SVAM)に対する総合的なアプローチを提案する。
提案するSVAM-Netは,様々なスケールの深部視覚的特徴を統合し,自然水中画像に有効なSOD(Salient Object Detection)を実現する。
論文 参考訳(メタデータ) (2020-11-12T08:17:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。