論文の概要: Design and Implementation of a Virtual 3D Educational Environment to
improve Deaf Education
- arxiv url: http://arxiv.org/abs/2006.00114v1
- Date: Fri, 29 May 2020 22:56:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 23:50:10.725089
- Title: Design and Implementation of a Virtual 3D Educational Environment to
improve Deaf Education
- Title(参考訳): 聴覚教育を改善する仮想3次元教育環境の設計と実装
- Authors: Abdelaziz Lakhfif
- Abstract要約: 本稿では,X3DおよびH-Anim標準に基づく仮想3D教育環境の設計と実装に関する最近の研究課題について述べる。
このシステムは、アラビア語入力テキストの全意味をエンコードする意味表現から、自動署名言語文を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advances in NLP, knowledge representation and computer graphic technologies
can provide us insights into the development of educational tool for Deaf
people. Actual education materials and tools for deaf pupils present several
problems, since textbooks are designed to support normal students in the
classroom and most of them are not suitable for people with hearing
disabilities. Virtual Reality (VR) technologies appear to be a good tool and a
promising framework in the education of pupils with hearing disabilities. In
this paper, we present a current research tasks surrounding the design and
implementation of a virtual 3D educational environment based on X3D and H-Anim
standards. The system generates and animates automatically Sign language
sentence from a semantic representation that encode the whole meaning of the
Arabic input text. Some aspects and issues in Sign language generation will be
discussed, including the model of Sign representation that facilitate reuse and
reduces the time of Sign generation, conversion of semantic components to sign
features representation with regard to Sign language linguistics
characteristics and how to generate realistic smooth gestural sequences using
X3D content to performs transition between signs for natural-looking of
animated avatar. Sign language sentences were evaluated by Algerian native Deaf
people. The goal of the project is the development of a machine translation
system from Arabic to Algerian Sign Language that can be used as educational
tool for Deaf children in algerian primary schools.
- Abstract(参考訳): NLP、知識表現、コンピュータグラフィック技術の進歩は、聴覚障害者のための教育ツールの開発に関する洞察を与えてくれる。
教科書は教室の普通の生徒を支援するために設計されており、そのほとんどが聴覚障害者に向いていないため、聴覚障害者のための実際の教材やツールにはいくつかの問題がある。
仮想現実(vr)技術は、聴覚障害者の教育において優れたツールであり、有望な枠組みであると思われる。
本稿では,X3DおよびH-Anim標準に基づく仮想3D教育環境の設計と実装に関する最近の研究課題について述べる。
このシステムは、アラビア語入力テキストの全意味を符号化する意味表現から、自動署名言語文を生成する。
サイン言語生成におけるいくつかの側面と課題について論じる。例えば、手話表現の再利用を促進し、手話生成の時間を短縮する手話表現のモデル、手話言語特性に関する手話表現への意味的要素の変換、X3Dコンテンツを用いて現実的なスムーズなジェスチャー配列を生成してアニメーションアバターの自然な外観のサイン間の遷移を実行する方法などである。
アルジェリア原住民によって手話文が評価された。
このプロジェクトの目的は、アラビア語からアルジェリア語への機械翻訳システムの開発であり、アルジェリアの小学校における聴覚障害者の教育ツールとして利用できる。
関連論文リスト
- Training program on sign language: social inclusion through Virtual
Reality in ISENSE project [0.5277756703318045]
ISENSEプロジェクトは、手話を教えるための様々な技術ツールを聴取コミュニティに提案する。
本研究の目的は,VR環境を利用したスペイン語とイタリア語の手話認識アプリケーションを開発することである。
論文 参考訳(メタデータ) (2024-01-15T20:40:46Z) - A Simple Baseline for Spoken Language to Sign Language Translation with
3D Avatars [52.56042673495026]
Spoken2Signは、音声言語を手話に変換するシステムである。
Spoken2Signタスクを3Dサインの出力フォーマットで最初に提示します。
論文 参考訳(メタデータ) (2024-01-09T18:59:49Z) - Neural Sign Actors: A diffusion model for 3D sign language production
from text [54.048218171283885]
手話は難聴者や難聴者のコミュニティにとって主要なコミュニケーション手段である。
深層学習はSL認識と翻訳の多くの手法を支援しており、顕著な成果を上げている。
この研究は、現実的なニューラルサインアバターに向けて重要かつ必要なステップを示し、聴覚と聴覚のコミュニティ間のコミュニケーションギャップを埋める。
論文 参考訳(メタデータ) (2023-12-05T12:04:34Z) - Learning to Model the World with Language [98.22400014565818]
我々は、将来のテキストや画像表現を予測するマルチモーダル世界モデルを学び、想像されたモデルロールアウトから行動を学ぶエージェントであるDynalangを紹介する。
アクションを予測するためにのみ言語を使用する従来のエージェントとは異なり、Dynalangは、過去の言語を使用して、将来の言語、ビデオ、報酬を予測することによって、リッチな言語理解を得る。
論文 参考訳(メタデータ) (2023-07-31T17:57:49Z) - Language-Driven Representation Learning for Robotics [115.93273609767145]
ロボット工学における視覚表現学習の最近の研究は、日々の作業を行う人間の大規模なビデオデータセットから学ぶことの可能性を実証している。
人間のビデオやキャプションから言語による表現学習を行うためのフレームワークを提案する。
我々は、Voltronの言語駆動学習が、特に高レベル制御を必要とするターゲット問題において、先行技術よりも優れていることを発見した。
論文 参考訳(メタデータ) (2023-02-24T17:29:31Z) - Design of Arabic Sign Language Recognition Model [0.0]
このモデルはArASL 2018でテストされ、40の署名者から集められた32のアルファベット記号に対して54,000の画像で構成されている。
今後の開発は、アラビア語の手話からアラビア語のテキストに変換するモデルになる予定だ。
論文 参考訳(メタデータ) (2023-01-06T19:19:25Z) - VidLanKD: Improving Language Understanding via Video-Distilled Knowledge
Transfer [76.3906723777229]
言語理解を改善するためのビデオ言語知識蒸留法VidLanKDを提案する。
我々は、ビデオテキストデータセット上でマルチモーダル教師モデルを訓練し、その知識をテキストデータセットを用いて学生言語モデルに伝達する。
我々の実験では、VidLanKDはテキストのみの言語モデルや発声モデルよりも一貫した改善を実現している。
論文 参考訳(メタデータ) (2021-07-06T15:41:32Z) - Skeleton Based Sign Language Recognition Using Whole-body Keypoints [71.97020373520922]
手話は聴覚障害者や言語障害者のコミュニケーションに使用される。
また,RGB-D法と組み合わせて最先端の性能を実現することで,Skeletonに基づく音声認識が普及しつつある。
近年のボディポーズ推定用citejin 2020wholeの開発に触発されて,全身キーポイントと特徴に基づく手話認識を提案する。
論文 参考訳(メタデータ) (2021-03-16T03:38:17Z) - Everybody Sign Now: Translating Spoken Language to Photo Realistic Sign
Language Video [43.45785951443149]
難聴者コミュニティが真に理解できるように、手話自動生成システムは、写真リアリスティックなシグナーを生成する必要がある。
我々は、音声言語から直接写真リアリスティックな連続手話ビデオを生成する最初のSLPモデルSignGANを提案する。
次に、ポーズ条件付き人間の合成モデルを導入し、骨格ポーズシーケンスから写真リアルな手話ビデオを生成する。
論文 参考訳(メタデータ) (2020-11-19T14:31:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。