論文の概要: Interpretable Underwater Diver Gesture Recognition
- arxiv url: http://arxiv.org/abs/2312.04874v1
- Date: Fri, 8 Dec 2023 07:14:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 16:01:05.169451
- Title: Interpretable Underwater Diver Gesture Recognition
- Title(参考訳): 解釈可能な水中ダイビングジェスチャ認識
- Authors: Sudeep Mangalvedhekar, Shreyas Nahar, Sudarshan Maskare, Kaushal
Mahajan, Dr. Anant Bagade
- Abstract要約: 深層学習を用いた認知自律的な潜水行動データセットに基づいて学習した水中ジェスチャー認識システムを提案する。
また、XAI技術を用いてモデルの予測を可視化することにより、ジェスチャー認識システム解釈性を向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, usage and applications of Autonomous Underwater Vehicles has
grown rapidly. Interaction of divers with the AUVs remains an integral part of
the usage of AUVs for various applications and makes building robust and
efficient underwater gesture recognition systems extremely important. In this
paper, we propose an Underwater Gesture Recognition system trained on the
Cognitive Autonomous Diving Buddy Underwater gesture dataset using deep
learning that achieves 98.01\% accuracy on the dataset, which to the best of
our knowledge is the best performance achieved on this dataset at the time of
writing this paper. We also improve the Gesture Recognition System
Interpretability by using XAI techniques to visualize the model's predictions.
- Abstract(参考訳): 近年,自律型水中車両の利用と利用が急速に増加している。
ダイバーとAUVの相互作用は、様々な用途におけるAUVの使用に不可欠な部分であり、堅牢で効率的な水中ジェスチャー認識システムの構築を極めて重要にしている。
本稿では,このデータセット上で98.01\%の精度を達成できる深層学習を用いて,認知自律的な潜水行動データセットに基づいて訓練された水中ジェスチャー認識システムを提案する。
また,xai技術を用いてモデルの予測を可視化することで,ジェスチャ認識システムの解釈性を向上させる。
関連論文リスト
- Zero-Shot Underwater Gesture Recognition [3.4078654008228924]
手のジェスチャー認識は、人間が非言語で機械と対話することを可能にする。
近年,CADDIANと呼ばれるジェスチャー言語がダイバー向けに考案され,高精度なジェスチャー認識のための教師あり学習法が適用されている。
本研究は,ゼロショット水中ジェスチャー認識 (ZSUGR) の必要性を提唱するものである。本研究の目的は,少数のクラスからのジェスチャーの視覚的サンプルを用いてモデルを訓練し,得られた知識をテスト時に伝達し,意味的に類似しないジェスチャークラスも認識することである。
論文 参考訳(メタデータ) (2024-07-19T08:16:46Z) - DeepAqua: Self-Supervised Semantic Segmentation of Wetland Surface Water
Extent with SAR Images using Knowledge Distillation [44.99833362998488]
トレーニングフェーズ中に手動アノテーションを不要にする自己教師型ディープラーニングモデルであるDeepAquaを提案する。
我々は、光とレーダーをベースとしたウォーターマスクが一致する場合を利用して、水面と植物の両方を検知する。
実験の結果,DeepAquaの精度は7%向上し,Intersection Over Unionが27%,F1が14%向上した。
論文 参考訳(メタデータ) (2023-05-02T18:06:21Z) - Optimization of a Hydrodynamic Computational Reservoir through Evolution [58.720142291102135]
我々は,スタートアップが開発中の流体力学系のモデルと,計算貯水池としてインターフェースする。
我々は、進化探索アルゴリズムを用いて、読み出し時間と入力を波の振幅や周波数にどのようにマッピングするかを最適化した。
この貯水池システムに進化的手法を適用することで、手作業パラメータを用いた実装と比較して、XNORタスクの分離性が大幅に向上した。
論文 参考訳(メタデータ) (2023-04-20T19:15:02Z) - A Comparative Study of Data Augmentation Techniques for Deep Learning
Based Emotion Recognition [11.928873764689458]
感情認識のための一般的なディープラーニングアプローチを包括的に評価する。
音声信号の長距離依存性が感情認識に重要であることを示す。
スピード/レート向上は、モデル間で最も堅牢なパフォーマンス向上を提供する。
論文 参考訳(メタデータ) (2022-11-09T17:27:03Z) - Learning-based estimation of in-situ wind speed from underwater
acoustics [58.293528982012255]
水中音響から風速時系列を検索するための深層学習手法を提案する。
我々のアプローチは、事前の物理知識と計算効率の両面から恩恵を受けるために、データ同化と学習ベースのフレームワークをブリッジする。
論文 参考訳(メタデータ) (2022-08-18T15:27:40Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - On Exploring Pose Estimation as an Auxiliary Learning Task for
Visible-Infrared Person Re-identification [66.58450185833479]
本稿では,Pose Estimationを補助学習タスクとして活用して,エンドツーエンドフレームワークにおけるVI-ReIDタスクを支援する。
これら2つのタスクを相互に有利な方法で共同でトレーニングすることにより、高品質なモダリティ共有とID関連の特徴を学習する。
2つのベンチマークVI-ReIDデータセットの実験結果から,提案手法は一定のマージンで最先端の手法を継続的に改善することが示された。
論文 参考訳(メタデータ) (2022-01-11T09:44:00Z) - DARE: AI-based Diver Action Recognition System using Multi-Channel CNNs
for AUV Supervision [3.5584173777587935]
本稿では,認知自律走行バディデータセットに基づいて学習したダイバー動作認識システムDAREを提案する。
DAREは高速で、1つのステレオペアを分類するのに数ミリ秒しか必要としないため、リアルタイム水中実装に適している。
論文 参考訳(メタデータ) (2020-11-16T04:05:32Z) - SVAM: Saliency-guided Visual Attention Modeling by Autonomous Underwater
Robots [16.242924916178282]
本稿では,自律型水中ロボットの視覚的注意モデル(SVAM)に対する総合的なアプローチを提案する。
提案するSVAM-Netは,様々なスケールの深部視覚的特徴を統合し,自然水中画像に有効なSOD(Salient Object Detection)を実現する。
論文 参考訳(メタデータ) (2020-11-12T08:17:21Z) - Deep Learning based Pedestrian Inertial Navigation: Methods, Dataset and
On-Device Inference [49.88536971774444]
慣性測定ユニット(IMU)は小型で安価でエネルギー効率が良く、スマートデバイスや移動ロボットに広く使われている。
正確で信頼性の高い歩行者ナビゲーションをサポートするために慣性データをエクスプロイトすることは、新しいインターネット・オブ・シングス・アプリケーションやサービスにとって重要なコンポーネントである。
我々は、深層学習に基づく慣性ナビゲーション研究のための最初の公開データセットであるOxIOD(OxIOD)を提示、リリースする。
論文 参考訳(メタデータ) (2020-01-13T04:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。