論文の概要: PerSign: Personalized Bangladeshi Sign Letters Synthesis
- arxiv url: http://arxiv.org/abs/2209.14591v1
- Date: Thu, 29 Sep 2022 07:07:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 17:55:27.850636
- Title: PerSign: Personalized Bangladeshi Sign Letters Synthesis
- Title(参考訳): persign: パーソナライズされたバングラデシュのサインレター合成
- Authors: Mohammad Imrul Jubair, Ali Ahnaf, Tashfiq Nahiyan Khan, Ullash
Bhattacharjee, Tanjila Joti
- Abstract要約: バングラデシュ手話(BdSL)は一般大衆にとって習得が難しい。
本稿では,手話のジェスチャーを導入して人のイメージを再現するシステムPerSignを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bangladeshi Sign Language (BdSL) - like other sign languages - is tough to
learn for general people, especially when it comes to expressing letters. In
this poster, we propose PerSign, a system that can reproduce a person's image
by introducing sign gestures in it. We make this operation personalized, which
means the generated image keeps the person's initial image profile - face, skin
tone, attire, background - unchanged while altering the hand, palm, and finger
positions appropriately. We use an image-to-image translation technique and
build a corresponding unique dataset to accomplish the task. We believe the
translated image can reduce the communication gap between signers (person who
uses sign language) and non-signers without having prior knowledge of BdSL.
- Abstract(参考訳): バングラデシュの手話(BdSL)は、他の手話と同様、一般の人々にとって、特に文字の表現に関して学ぶのは難しい。
本ポスターでは,手話のジェスチャーを導入して人のイメージを再現するシステムであるPerSignを提案する。
この操作をパーソナライズし、手、手のひら、指の位置を適切に変更しながら、生成した画像が顔、肌の色、服装、背景などの初期画像プロファイルを変更できるようにする。
画像から画像への変換技術を用いて、タスクを達成するための独自のデータセットを構築する。
翻訳画像は,BdSLの知識がなくても,手話(手話を使う人)と非手話のコミュニケーションギャップを低減できると考えている。
関連論文リスト
- Continuous Sign Language Recognition System using Deep Learning with MediaPipe Holistic [1.9874264019909988]
手話はコミュニケーションに視覚を使う聴覚障害者の言語である。
アメリカ手話(ASL)、中国手話(CSL)、インド手話(ISL)など、世界中で約300の手話が実践されている。
論文 参考訳(メタデータ) (2024-11-07T08:19:39Z) - Pose-Based Sign Language Appearance Transfer [5.839722619084469]
本稿では,手話の骨格ポーズにおいて,手話の内容を保持しながら手話の外観を伝達する手法を提案する。
このアプローチは、アイデンティティを難読化しながらポーズベースのレンダリングとサインステッチを改善する。
実験の結果,シグナ識別精度は低下するが,シグナ認識性能はわずかに低下することがわかった。
論文 参考訳(メタデータ) (2024-10-17T15:33:54Z) - Scaling up Multimodal Pre-training for Sign Language Understanding [96.17753464544604]
手話は、難聴者コミュニティにとってコミュニケーションの主要な意味である。
難聴者と聴覚者のコミュニケーションを容易にするために,手話理解(SLU)タスクのシリーズが研究されている。
これらの課題は、多様な視点から手話のトピックを調査し、手話ビデオの効果的な表現を学ぶ上での課題を提起する。
論文 参考訳(メタデータ) (2024-08-16T06:04:25Z) - New Capability to Look Up an ASL Sign from a Video Example [4.992008196032313]
ASL符号のビデオの検索を可能にするために,Web上で公開された新しいシステムについて述べる。
ユーザは分析のためにビデオを提出し、最も可能性の高い5つのサインマッチが提示される。
このビデオ検索は、ASLビデオデータの言語アノテーションを容易にするために、最新のSignStreamソフトウェアに統合されています。
論文 参考訳(メタデータ) (2024-07-18T15:14:35Z) - EvSign: Sign Language Recognition and Translation with Streaming Events [59.51655336911345]
イベントカメラは、動的手の動きを自然に知覚し、手話作業のための豊富な手作業の手がかりを提供する。
イベントベースSLRおよびSLTタスクのための効率的なトランスフォーマーベースフレームワークを提案する。
計算コストは0.34%に過ぎず,既存の最先端手法に対して良好に機能する。
論文 参考訳(メタデータ) (2024-07-17T14:16:35Z) - A Simple Baseline for Spoken Language to Sign Language Translation with 3D Avatars [49.60328609426056]
Spoken2Signは、音声言語を手話に変換するシステムである。
本稿では,グロスビデオ辞書の作成,サインビデオ毎の3Dサインの推定,スポンケン2サインモデルのトレーニングという3つのステップからなる単純なベースラインを提案する。
私たちが知っている限りでは、最初にSpken2Signタスクを3Dサインの出力フォーマットで提示します。
論文 参考訳(メタデータ) (2024-01-09T18:59:49Z) - Image-based Indian Sign Language Recognition: A Practical Review using
Deep Neural Networks [0.0]
このモデルは、手話をテキストに変換するリアルタイムな単語レベル手話認識システムを開発することを目的としている。
この分析のために、ユーザはWebカメラを使って手の動きの写真を撮らなければならない。
我々のモデルは畳み込みニューラルネットワーク(CNN)を用いて訓練され、画像の認識に使用される。
論文 参考訳(メタデータ) (2023-04-28T09:27:04Z) - Weakly-supervised Fingerspelling Recognition in British Sign Language
Videos [85.61513254261523]
従来の指スペル認識法は、British Sign Language (BSL) に焦点を絞っていない
従来の手法とは対照的に,本手法はトレーニング用字幕の弱いアノテーションのみを使用する。
本稿では,このタスクに適応したTransformerアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-16T15:02:36Z) - Skeleton Based Sign Language Recognition Using Whole-body Keypoints [71.97020373520922]
手話は聴覚障害者や言語障害者のコミュニケーションに使用される。
また,RGB-D法と組み合わせて最先端の性能を実現することで,Skeletonに基づく音声認識が普及しつつある。
近年のボディポーズ推定用citejin 2020wholeの開発に触発されて,全身キーポイントと特徴に基づく手話認識を提案する。
論文 参考訳(メタデータ) (2021-03-16T03:38:17Z) - Everybody Sign Now: Translating Spoken Language to Photo Realistic Sign
Language Video [43.45785951443149]
難聴者コミュニティが真に理解できるように、手話自動生成システムは、写真リアリスティックなシグナーを生成する必要がある。
我々は、音声言語から直接写真リアリスティックな連続手話ビデオを生成する最初のSLPモデルSignGANを提案する。
次に、ポーズ条件付き人間の合成モデルを導入し、骨格ポーズシーケンスから写真リアルな手話ビデオを生成する。
論文 参考訳(メタデータ) (2020-11-19T14:31:06Z) - BSL-1K: Scaling up co-articulated sign language recognition using
mouthing cues [106.21067543021887]
ビデオデータから高品質なアノテーションを得るために,シグナリングキューの使い方を示す。
BSL-1Kデータセット(英: BSL-1K dataset)は、イギリス手話(英: British Sign Language, BSL)の集合体である。
論文 参考訳(メタデータ) (2020-07-23T16:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。