論文の概要: Image-based Indian Sign Language Recognition: A Practical Review using
Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2304.14710v1
- Date: Fri, 28 Apr 2023 09:27:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 14:45:58.544238
- Title: Image-based Indian Sign Language Recognition: A Practical Review using
Deep Neural Networks
- Title(参考訳): 画像に基づくインド手話認識:ディープニューラルネットワークを用いた実践的レビュー
- Authors: Mallikharjuna Rao K, Harleen Kaur, Sanjam Kaur Bedi, and M A Lekhana
- Abstract要約: このモデルは、手話をテキストに変換するリアルタイムな単語レベル手話認識システムを開発することを目的としている。
この分析のために、ユーザはWebカメラを使って手の動きの写真を撮らなければならない。
我々のモデルは畳み込みニューラルネットワーク(CNN)を用いて訓練され、画像の認識に使用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: People with vocal and hearing disabilities use sign language to express
themselves using visual gestures and signs. Although sign language is a
solution for communication difficulties faced by deaf people, there are still
problems as most of the general population cannot understand this language,
creating a communication barrier, especially in places such as banks, airports,
supermarkets, etc. [1]. A sign language recognition(SLR) system is a must to
solve this problem. The main focus of this model is to develop a real-time
word-level sign language recognition system that would translate sign language
to text. Much research has been done on ASL(American sign language). Thus, we
have worked on ISL(Indian sign language) to cater to the needs of the deaf and
hard-of-hearing community of India[2]. In this research, we provide an Indian
Sign Language-based Sign Language recognition system. For this analysis, the
user must be able to take pictures of hand movements using a web camera, and
the system must anticipate and display the name of the taken picture. The
acquired image goes through several processing phases, some of which use
computer vision techniques, including grayscale conversion, dilatation, and
masking. Our model is trained using a convolutional neural network (CNN), which
is then utilized to recognize the images. Our best model has a 99% accuracy
rate[3].
- Abstract(参考訳): 声や聴覚障害のある人は手話を使って、視覚のジェスチャーやサインを使って自己を表現する。
手話は聴覚障害者が直面するコミュニケーション障害の解決策であるが、多くの一般市民はこの言語を理解できず、特に銀行、空港、スーパーマーケットなどの場所でコミュニケーション障壁を生んでいる。
[1].
この問題を解決するためには手話認識(SLR)システムが必要である。
このモデルの主な焦点は、手話からテキストへ翻訳するリアルタイムの単語レベルの手話認識システムを開発することである。
ASL(American sign language)に関する多くの研究がなされている。
そこで我々は、インドにおける聴覚障害と難聴者コミュニティのニーズに応えるために、ISL(Indian sign language)に取り組んでいる[2]。
本研究では,インド手話に基づく手話認識システムを提案する。
この分析のためには、ユーザーはウェブカメラを使って手の動きの写真を撮影できなければならず、システムは撮影された画像の名前を予測して表示する必要がある。
取得された画像は、グレースケール変換、拡張、マスキングなど、コンピュータビジョン技術を使用するいくつかの処理フェーズを経ている。
我々のモデルは畳み込みニューラルネットワーク(CNN)を用いて訓練され、画像の認識に使用される。
私たちの最良のモデルは99%の精度[3]です。
関連論文リスト
- Scaling up Multimodal Pre-training for Sign Language Understanding [96.17753464544604]
手話は、難聴者コミュニティにとってコミュニケーションの主要な意味である。
難聴者と聴覚者のコミュニケーションを容易にするために,手話理解(SLU)タスクのシリーズが研究されている。
これらの課題は、多様な視点から手話のトピックを調査し、手話ビデオの効果的な表現を学ぶ上での課題を提起する。
論文 参考訳(メタデータ) (2024-08-16T06:04:25Z) - EvSign: Sign Language Recognition and Translation with Streaming Events [59.51655336911345]
イベントカメラは、動的手の動きを自然に知覚し、手話作業のための豊富な手作業の手がかりを提供する。
イベントベースSLRおよびSLTタスクのための効率的なトランスフォーマーベースフレームワークを提案する。
計算コストは0.34%に過ぎず,既存の最先端手法に対して良好に機能する。
論文 参考訳(メタデータ) (2024-07-17T14:16:35Z) - Enhancing Brazilian Sign Language Recognition through Skeleton Image Representation [2.6311088262657907]
本研究は、身体、手、顔のランドマークを時間を通して抽出し、2次元画像として符号化する、分離手話認識(ISLR)アプローチを提案する。
ブラジル手話(LIBRAS)における2つの広く認識されているデータセットの性能指標から,本手法が最先端の指標を上回ったことを示す。
より正確であることに加えて、より単純なネットワークアーキテクチャに依存し、入力としてのみRGBデータに依存するため、我々の手法はより時間効率が高く、訓練が容易である。
論文 参考訳(メタデータ) (2024-04-29T23:21:17Z) - Neural Sign Actors: A diffusion model for 3D sign language production from text [51.81647203840081]
手話 (SL) は難聴者および難聴者コミュニティの主要なコミュニケーション手段である。
この研究は、現実的なニューラルサインアバターに向けて重要な一歩を踏み出し、聴覚と聴覚のコミュニティ間のコミュニケーションギャップを埋める。
論文 参考訳(メタデータ) (2023-12-05T12:04:34Z) - A Comparative Analysis of Techniques and Algorithms for Recognising Sign
Language [0.9311364633437358]
手話はしばしば、難聴者によるコミュニケーションの第一形態として使われる。
聴覚障害者にソーシャル・プラットフォームを提供するヒューマン・コンピュータ・インタフェース・システムを構築する必要がある。
ほとんどの商用手話翻訳システムはセンサーベースで高価で使いづらい。
論文 参考訳(メタデータ) (2023-05-05T10:52:18Z) - Indian Sign Language Recognition Using Mediapipe Holistic [0.0]
インド手話をテキストや音声に変換するために,手話認識のための堅牢なシステムを構築する。
サイン言語に依存した聴覚障害と難聴者のコミュニケーション能力を高めるため、テキスト・ツー・サイン言語パラダイムの作成が不可欠である。
論文 参考訳(メタデータ) (2023-04-20T12:25:47Z) - All You Need In Sign Language Production [50.3955314892191]
言語認識と生産のサインは、いくつかの重要な課題に対処する必要があります。
本稿では,難聴文化,難聴センター,手話の心理的視点について紹介する。
また、SLPのバックボーンアーキテクチャや手法を簡潔に紹介し、SLPの分類について提案する。
論文 参考訳(メタデータ) (2022-01-05T13:45:09Z) - Sign Language Recognition System using TensorFlow Object Detection API [0.0]
本稿では,Webカメラを用いてインド手話データセットを作成し,次に移動学習を用いて,リアルタイム手話認識システムを構築するためのモデルを訓練する手法を提案する。
システムは、限られたサイズのデータセットであっても、良好な精度を達成する。
論文 参考訳(メタデータ) (2022-01-05T07:13:03Z) - Skeleton Based Sign Language Recognition Using Whole-body Keypoints [71.97020373520922]
手話は聴覚障害者や言語障害者のコミュニケーションに使用される。
また,RGB-D法と組み合わせて最先端の性能を実現することで,Skeletonに基づく音声認識が普及しつつある。
近年のボディポーズ推定用citejin 2020wholeの開発に触発されて,全身キーポイントと特徴に基づく手話認識を提案する。
論文 参考訳(メタデータ) (2021-03-16T03:38:17Z) - Everybody Sign Now: Translating Spoken Language to Photo Realistic Sign
Language Video [43.45785951443149]
難聴者コミュニティが真に理解できるように、手話自動生成システムは、写真リアリスティックなシグナーを生成する必要がある。
我々は、音声言語から直接写真リアリスティックな連続手話ビデオを生成する最初のSLPモデルSignGANを提案する。
次に、ポーズ条件付き人間の合成モデルを導入し、骨格ポーズシーケンスから写真リアルな手話ビデオを生成する。
論文 参考訳(メタデータ) (2020-11-19T14:31:06Z) - Novel Approach to Use HU Moments with Image Processing Techniques for
Real Time Sign Language Communication [0.0]
手話通信装置(SLC)は,手話利用者と他国との言語障壁を解決するために設計されている。
システムは選択した手話記号を84%の精度で認識できる。
論文 参考訳(メタデータ) (2020-07-20T03:10:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。