論文の概要: Gesture based Arabic Sign Language Recognition for Impaired People based
on Convolution Neural Network
- arxiv url: http://arxiv.org/abs/2203.05602v1
- Date: Thu, 10 Mar 2022 19:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 21:21:57.197461
- Title: Gesture based Arabic Sign Language Recognition for Impaired People based
on Convolution Neural Network
- Title(参考訳): 畳み込みニューラルネットワークに基づく障害者のジェスチャーに基づくアラビア語手話認識
- Authors: Rady El Rwelli, Osama R. Shahin, Ahmed I. Taloba
- Abstract要約: アラビア手話(ArSL)の認識は、アラビア手話(ArSL)のバリエーションにより難しい研究課題となっている。
提案システムは、アラビア手話の手振りを入力とし、発声音声を出力する。
結果は90%の人に認識された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Arabic Sign Language has endorsed outstanding research achievements for
identifying gestures and hand signs using the deep learning methodology. The
term "forms of communication" refers to the actions used by hearing-impaired
people to communicate. These actions are difficult for ordinary people to
comprehend. The recognition of Arabic Sign Language (ArSL) has become a
difficult study subject due to variations in Arabic Sign Language (ArSL) from
one territory to another and then within states. The Convolution Neural Network
has been encapsulated in the proposed system which is based on the machine
learning technique. For the recognition of the Arabic Sign Language, the
wearable sensor is utilized. This approach has been used a different system
that could suit all Arabic gestures. This could be used by the impaired people
of the local Arabic community. The research method has been used with
reasonable and moderate accuracy. A deep Convolutional network is initially
developed for feature extraction from the data gathered by the sensing devices.
These sensors can reliably recognize the Arabic sign language's 30 hand sign
letters. The hand movements in the dataset were captured using DG5-V hand
gloves with wearable sensors. For categorization purposes, the CNN technique is
used. The suggested system takes Arabic sign language hand gestures as input
and outputs vocalized speech as output. The results were recognized by 90% of
the people.
- Abstract(参考訳): アラビア語の手話は、深層学習手法を用いてジェスチャーや手話の識別に優れた研究成果を支えてきた。
コミュニケーションの形式」という用語は、聴覚障害者がコミュニケーションに使用する行動を指す。
これらの行動は一般人にとって理解が難しい。
アラビア手話 (ArSL) の認識は、アラビア手話 (ArSL) が、ある領域から別の領域へ、そして州内で変化するため、難しい研究課題となっている。
畳み込みニューラルネットワークは,機械学習技術に基づく提案システムにカプセル化されている。
アラビア手話の認識には、ウェアラブルセンサが使用される。
このアプローチは、すべてのアラビア語のジェスチャーに適合する別のシステムを使用しています。
これは、地元のアラビア人コミュニティの障害を受けた人々によって使用される。
研究方法は適度かつ適度な精度で使用されてきた。
センシング装置が収集したデータから特徴を抽出するために、当初は深い畳み込みネットワークが開発された。
これらのセンサーはアラビア手話の30文字を確実に認識することができる。
DG5-Vハンドグローブとウェアラブルセンサーで手の動きを捉えた。
分類の目的では、cnn技術が用いられる。
提案システムは、アラビア語手話手のジェスチャーを入力とし、発声音声を出力として出力する。
結果は90%の人に認識された。
関連論文リスト
- Scaling up Multimodal Pre-training for Sign Language Understanding [96.17753464544604]
手話は、難聴者コミュニティにとってコミュニケーションの主要な意味である。
難聴者と聴覚者のコミュニケーションを容易にするために,手話理解(SLU)タスクのシリーズが研究されている。
これらの課題は、多様な視点から手話のトピックを調査し、手話ビデオの効果的な表現を学ぶ上での課題を提起する。
論文 参考訳(メタデータ) (2024-08-16T06:04:25Z) - A Transformer-Based Multi-Stream Approach for Isolated Iranian Sign Language Recognition [0.0]
本研究の目的は,イラン手話語をトランスフォーマーなどの最新のディープラーニングツールの助けを借りて認識することである。
使用されるデータセットには、大学などの学術環境で頻繁に使用されるイラン手話101語が含まれている。
論文 参考訳(メタデータ) (2024-06-27T06:54:25Z) - Self-Supervised Representation Learning with Spatial-Temporal Consistency for Sign Language Recognition [96.62264528407863]
本研究では,空間的時間的整合性を通じてリッチな文脈を探索する自己教師付きコントラスト学習フレームワークを提案する。
動きと関節のモーダル性の相補性に着想を得て,手話モデルに一階動作情報を導入する。
提案手法は,4つの公開ベンチマークの広範な実験により評価され,新しい最先端性能と顕著なマージンを実現している。
論文 参考訳(メタデータ) (2024-06-15T04:50:19Z) - Image-based Indian Sign Language Recognition: A Practical Review using
Deep Neural Networks [0.0]
このモデルは、手話をテキストに変換するリアルタイムな単語レベル手話認識システムを開発することを目的としている。
この分析のために、ユーザはWebカメラを使って手の動きの写真を撮らなければならない。
我々のモデルは畳み込みニューラルネットワーク(CNN)を用いて訓練され、画像の認識に使用される。
論文 参考訳(メタデータ) (2023-04-28T09:27:04Z) - Weakly-supervised Fingerspelling Recognition in British Sign Language
Videos [85.61513254261523]
従来の指スペル認識法は、British Sign Language (BSL) に焦点を絞っていない
従来の手法とは対照的に,本手法はトレーニング用字幕の弱いアノテーションのみを使用する。
本稿では,このタスクに適応したTransformerアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-16T15:02:36Z) - Sign Language Recognition System using TensorFlow Object Detection API [0.0]
本稿では,Webカメラを用いてインド手話データセットを作成し,次に移動学習を用いて,リアルタイム手話認識システムを構築するためのモデルを訓練する手法を提案する。
システムは、限られたサイズのデータセットであっても、良好な精度を達成する。
論文 参考訳(メタデータ) (2022-01-05T07:13:03Z) - Egyptian Sign Language Recognition Using CNN and LSTM [0.0]
本稿では、2つの異なるニューラルネットワークアーキテクチャを持つコンピュータビジョンシステムを提案する。
2つのモデルはそれぞれ90%と72%の精度を達成した。
エジプトの聴覚障害者コミュニティの9つの共通語(類似した記号)を区別するために、これらの2つの建築の力について検討した。
論文 参考訳(メタデータ) (2021-07-28T21:33:35Z) - Sign Language Production: A Review [51.07720650677784]
手話 (Sign Language) は、聴覚障害と聴覚障害のコミュニティで使われるコミュニケーション言語である。
聴覚障害者と聴覚コミュニティのコミュニケーションを容易かつ相互に行うためには、話し言葉を手話に翻訳できる堅牢なシステムを構築することが不可欠です。
そのために、手話認識と生産は、このような双方向システムを作るのに必要な2つの部分です。
論文 参考訳(メタデータ) (2021-03-29T19:38:22Z) - Skeleton Based Sign Language Recognition Using Whole-body Keypoints [71.97020373520922]
手話は聴覚障害者や言語障害者のコミュニケーションに使用される。
また,RGB-D法と組み合わせて最先端の性能を実現することで,Skeletonに基づく音声認識が普及しつつある。
近年のボディポーズ推定用citejin 2020wholeの開発に触発されて,全身キーポイントと特徴に基づく手話認識を提案する。
論文 参考訳(メタデータ) (2021-03-16T03:38:17Z) - Acoustics Based Intent Recognition Using Discovered Phonetic Units for
Low Resource Languages [51.0542215642794]
本稿では,検出された音素単位を意図分類に用いる新しい音響に基づく意図認識システムを提案する。
我々は,2つの言語群 – インディカル言語とロマンス言語 – に対する2つの異なる意図認識タスクの結果を提示する。
論文 参考訳(メタデータ) (2020-11-07T00:35:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。