論文の概要: Training program on sign language: social inclusion through Virtual
Reality in ISENSE project
- arxiv url: http://arxiv.org/abs/2401.08714v1
- Date: Mon, 15 Jan 2024 20:40:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 18:28:33.849493
- Title: Training program on sign language: social inclusion through Virtual
Reality in ISENSE project
- Title(参考訳): 手話教育プログラム--ISENSEプロジェクトにおけるバーチャルリアリティによるソーシャルインクルージョン
- Authors: Alessia Bisio, Enrique Yeguas-Bol\'ivar, Pilar Aparicio-Mart\'inez,
Mar\'ia Dolores Redel-Mac\'ias, Sara Pinzi, Stefano Rossi and Juri Taborri
- Abstract要約: ISENSEプロジェクトは、手話を教えるための様々な技術ツールを聴取コミュニティに提案する。
本研究の目的は,VR環境を利用したスペイン語とイタリア語の手話認識アプリケーションを開発することである。
- 参考スコア(独自算出の注目度): 0.5277756703318045
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Structured hand gestures that incorporate visual motions and signs are used
in sign language. Sign language is a valuable means of daily communication for
individuals who are deaf or have speech impairments, but it is still rare among
hearing people, and fewer are capable of understand it. Within the academic
context, parents and teachers play a crucial role in supporting deaf students
from childhood by facilitating their learning of sign language. In the last
years, among all the teaching tools useful for learning sign language, the use
of Virtual Reality (VR) has increased, as it has been demonstrated to improve
retention, memory and attention during the learning process. The ISENSE project
has been created to assist students with deafness during their academic life by
proposing different technological tools for teaching sign language to the
hearing community in the academic context. As part of the ISENSE project, this
work aims to develop an application for Spanish and Italian sign language
recognition that exploits the VR environment to quickly and easily create a
comprehensive database of signs and an Artificial Intelligence (AI)-based
software to accurately classify and recognize static and dynamic signs: from
letters to sentences.
- Abstract(参考訳): 視覚的な動きやサインを組み込んだ手の動きは手話で使われる。
手話は、聴覚障害や言語障害を持つ個人にとって、日常的なコミュニケーションの貴重な手段であるが、聴覚障害者の間ではまだ稀であり、それを理解する能力は少ない。
学術的な文脈では、父母と教師は手話の学習を促進することによって、幼児の聴覚障害の学生を支援する重要な役割を担っている。
近年,手話学習に有用な教育ツールとして,学習過程における保持,記憶,注意の向上が実証され,仮想現実(VR)の利用が増加している。
ISENSEプロジェクトは、学術的文脈において、手話を教えるための異なる技術ツールを聴取コミュニティに提案することで、学生が学期中に難聴を負うのを支援するために作られた。
ISENSEプロジェクトの一環として、この研究は、VR環境を利用してサインの包括的なデータベースと人工知能(AI)ベースのソフトウェアを迅速かつ容易に作成し、文字から文までの静的および動的記号を正確に分類し、認識する、スペインとイタリアの手話認識アプリケーションを開発することを目的としている。
関連論文リスト
- Continuous Sign Language Recognition System using Deep Learning with MediaPipe Holistic [1.9874264019909988]
手話はコミュニケーションに視覚を使う聴覚障害者の言語である。
アメリカ手話(ASL)、中国手話(CSL)、インド手話(ISL)など、世界中で約300の手話が実践されている。
論文 参考訳(メタデータ) (2024-11-07T08:19:39Z) - Scaling up Multimodal Pre-training for Sign Language Understanding [96.17753464544604]
手話は、難聴者コミュニティにとってコミュニケーションの主要な意味である。
難聴者と聴覚者のコミュニケーションを容易にするために,手話理解(SLU)タスクのシリーズが研究されている。
これらの課題は、多様な視点から手話のトピックを調査し、手話ビデオの効果的な表現を学ぶ上での課題を提起する。
論文 参考訳(メタデータ) (2024-08-16T06:04:25Z) - EvSign: Sign Language Recognition and Translation with Streaming Events [59.51655336911345]
イベントカメラは、動的手の動きを自然に知覚し、手話作業のための豊富な手作業の手がかりを提供する。
イベントベースSLRおよびSLTタスクのための効率的なトランスフォーマーベースフレームワークを提案する。
計算コストは0.34%に過ぎず,既存の最先端手法に対して良好に機能する。
論文 参考訳(メタデータ) (2024-07-17T14:16:35Z) - A Transformer-Based Multi-Stream Approach for Isolated Iranian Sign Language Recognition [0.0]
本研究の目的は,イラン手話語をトランスフォーマーなどの最新のディープラーニングツールの助けを借りて認識することである。
使用されるデータセットには、大学などの学術環境で頻繁に使用されるイラン手話101語が含まれている。
論文 参考訳(メタデータ) (2024-06-27T06:54:25Z) - Self-Supervised Representation Learning with Spatial-Temporal Consistency for Sign Language Recognition [96.62264528407863]
本研究では,空間的時間的整合性を通じてリッチな文脈を探索する自己教師付きコントラスト学習フレームワークを提案する。
動きと関節のモーダル性の相補性に着想を得て,手話モデルに一階動作情報を導入する。
提案手法は,4つの公開ベンチマークの広範な実験により評価され,新しい最先端性能と顕著なマージンを実現している。
論文 参考訳(メタデータ) (2024-06-15T04:50:19Z) - Indian Sign Language Recognition Using Mediapipe Holistic [0.0]
インド手話をテキストや音声に変換するために,手話認識のための堅牢なシステムを構築する。
サイン言語に依存した聴覚障害と難聴者のコミュニケーション能力を高めるため、テキスト・ツー・サイン言語パラダイムの作成が不可欠である。
論文 参考訳(メタデータ) (2023-04-20T12:25:47Z) - LSA-T: The first continuous Argentinian Sign Language dataset for Sign
Language Translation [52.87578398308052]
手話翻訳(SLT)は、人間とコンピュータの相互作用、コンピュータビジョン、自然言語処理、機械学習を含む活発な研究分野である。
本稿では,最初の連続的アルゼンチン手話(LSA)データセットを提案する。
このビデオには、CN Sordos YouTubeチャンネルから抽出されたLCAの14,880の文レベルのビデオと、各署名者のためのラベルとキーポイントアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-11-14T14:46:44Z) - All You Need In Sign Language Production [50.3955314892191]
言語認識と生産のサインは、いくつかの重要な課題に対処する必要があります。
本稿では,難聴文化,難聴センター,手話の心理的視点について紹介する。
また、SLPのバックボーンアーキテクチャや手法を簡潔に紹介し、SLPの分類について提案する。
論文 参考訳(メタデータ) (2022-01-05T13:45:09Z) - Skeleton Based Sign Language Recognition Using Whole-body Keypoints [71.97020373520922]
手話は聴覚障害者や言語障害者のコミュニケーションに使用される。
また,RGB-D法と組み合わせて最先端の性能を実現することで,Skeletonに基づく音声認識が普及しつつある。
近年のボディポーズ推定用citejin 2020wholeの開発に触発されて,全身キーポイントと特徴に基づく手話認識を提案する。
論文 参考訳(メタデータ) (2021-03-16T03:38:17Z) - Design and Implementation of a Virtual 3D Educational Environment to
improve Deaf Education [0.0]
本稿では,X3DおよびH-Anim標準に基づく仮想3D教育環境の設計と実装に関する最近の研究課題について述べる。
このシステムは、アラビア語入力テキストの全意味をエンコードする意味表現から、自動署名言語文を生成する。
論文 参考訳(メタデータ) (2020-05-29T22:56:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。