論文の概要: MoRSE: Deep Learning-based Arm Gesture Recognition for Search and Rescue
Operations
- arxiv url: http://arxiv.org/abs/2210.08307v1
- Date: Sat, 15 Oct 2022 14:23:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 21:31:40.503988
- Title: MoRSE: Deep Learning-based Arm Gesture Recognition for Search and Rescue
Operations
- Title(参考訳): MoRSE:検索・救助作業のための深層学習に基づくアームジェスチャ認識
- Authors: Panagiotis Kasnesis, Christos Chatzigeorgiou, Dimitrios G. Kogias,
Charalampos Z. Patrikakis, Harris V. Georgiou and Aspasia Tzeletopoulou
- Abstract要約: 本稿では、Deep Learning(DL)モデルを用いて、予め定義されたアームジェスチャーの集合を認識するスマートウォッチベースのアプリケーションを提案する。
モデル性能は,支配的な腕にスマートウォッチを装着した7人の被験者(クロスバリデーション)が行う4,200のジェスチャーを用いて評価した。
我々のDLモデルは畳み込みプーリングに頼り、既存のDLアプローチと一般的な機械学習分類器の性能を上回り、95%以上のジェスチャー認識精度を得る。
- 参考スコア(独自算出の注目度): 1.4680035572775534
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Efficient and quick remote communication in search and rescue operations can
be life-saving for the first responders. However, while operating on the field
means of communication based on text, image and audio are not suitable for
several disaster scenarios. In this paper, we present a smartwatch-based
application, which utilizes a Deep Learning (DL) model, to recognize a set of
predefined arm gestures, maps them into Morse code via vibrations enabling
remote communication amongst first responders. The model performance was
evaluated by training it using 4,200 gestures performed by 7 subjects
(cross-validation) wearing a smartwatch on their dominant arm. Our DL model
relies on convolutional pooling and surpasses the performance of existing DL
approaches and common machine learning classifiers, obtaining gesture
recognition accuracy above 95%. We conclude by discussing the results and
providing future directions.
- Abstract(参考訳): 捜索および救助活動における効率的かつ迅速な遠隔通信は、最初の応答者にとって命を救うことができる。
しかし、テキストに基づくコミュニケーションのフィールド上での操作においては、画像と音声はいくつかの災害シナリオには適さない。
本稿では,ディープラーニング(dl)モデルを用いて予め定義されたアームジェスチャのセットを認識し,最初の応答者間の遠隔通信を可能にする振動によってモースコードにマップする,スマートウォッチベースのアプリケーションを提案する。
モデル性能は,支配的な腕にスマートウォッチを装着した7人の被験者(クロスバリデーション)が行う4,200のジェスチャーを用いて評価した。
我々のDLモデルは畳み込みプーリングに頼り、既存のDLアプローチと一般的な機械学習分類器の性能を上回り、95%以上のジェスチャー認識精度を得る。
結果について議論し、今後の方向性を提供する。
関連論文リスト
- Zero-Shot Underwater Gesture Recognition [3.4078654008228924]
手のジェスチャー認識は、人間が非言語で機械と対話することを可能にする。
近年,CADDIANと呼ばれるジェスチャー言語がダイバー向けに考案され,高精度なジェスチャー認識のための教師あり学習法が適用されている。
本研究は,ゼロショット水中ジェスチャー認識 (ZSUGR) の必要性を提唱するものである。本研究の目的は,少数のクラスからのジェスチャーの視覚的サンプルを用いてモデルを訓練し,得られた知識をテスト時に伝達し,意味的に類似しないジェスチャークラスも認識することである。
論文 参考訳(メタデータ) (2024-07-19T08:16:46Z) - Deep self-supervised learning with visualisation for automatic gesture recognition [1.6647755388646919]
ジェスチャーは非言語コミュニケーションの重要な手段であり、視覚的モダリティにより、人間が対話中に情報を伝達し、人々や人間と機械の相互作用を促進する。
本研究では, 深層学習を用いた手指の認識方法として, 教師あり学習法, 自己教師あり手法, 3次元移動骨格データに適用した可視化技術について検討する。
論文 参考訳(メタデータ) (2024-06-18T09:44:55Z) - Wearable Sensor-Based Few-Shot Continual Learning on Hand Gestures for Motor-Impaired Individuals via Latent Embedding Exploitation [6.782362178252351]
本稿では,リプレイベースのFew-Shot連続学習フレームワークにおいて,Latent Embedding Exploitation (LEE) 機構を導入する。
本手法は,ジェスチャー先行知識として知られる保存された潜伏埋め込みを利用して,多様な潜伏特徴空間を生成する。
本手法は、運動障害者がウェアラブルデバイスを活用するのに役立ち、そのユニークな動作スタイルを学習し応用することができる。
論文 参考訳(メタデータ) (2024-05-14T21:20:27Z) - DOAD: Decoupled One Stage Action Detection Network [77.14883592642782]
人々をローカライズし、ビデオからアクションを認識することは、ハイレベルなビデオ理解にとって難しい課題だ。
既存の手法は主に2段階ベースで、1段階は人物境界ボックス生成、もう1段階は行動認識を行う。
本稿では、時間的行動検出の効率を向上させるために、DOADと呼ばれる分離したワンステージネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-01T08:06:43Z) - Bidirectional Cross-Modal Knowledge Exploration for Video Recognition
with Pre-trained Vision-Language Models [149.1331903899298]
本稿では,双方向の知識を探索するクロスモーダルブリッジを用いた,BIKEと呼ばれる新しいフレームワークを提案する。
本研究では,テキスト・トゥ・ビデオの専門知識を用いて時間的サリエンシをパラメータフリーでキャプチャする時間的概念スポッティング機構を提案する。
我々の最良のモデルは、リリースしたCLIPモデルを使用して、Kinetics-400の挑戦に対して、最先端の精度88.6%を達成する。
論文 参考訳(メタデータ) (2022-12-31T11:36:53Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild [62.450907796261646]
手のジェスチャーの認識は、ソフトウェアによって推定される手の骨格のストリームから直接行うことができる。
最近のスケルトンからのジェスチャーや行動認識の進歩にもかかわらず、現在の最先端技術が現実のシナリオでどの程度うまく機能するかは明らかではない。
本稿では,SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild contestについて述べる。
論文 参考訳(メタデータ) (2021-06-21T10:57:49Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - A Transfer Learning Method for Speech Emotion Recognition from Automatic
Speech Recognition [0.0]
本稿では,時間遅延ニューラルネットワークアーキテクチャに基づく音声感情認識における伝達学習手法を示す。
5倍のクロスバリデーションを用いて,最先端技術と比較して高い精度を実現する。
論文 参考訳(メタデータ) (2020-08-06T20:37:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。