論文の概要: Real Time Captioning of Sign Language Gestures in Video Meetings
- arxiv url: http://arxiv.org/abs/2507.14543v1
- Date: Sat, 19 Jul 2025 09:01:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:31.93499
- Title: Real Time Captioning of Sign Language Gestures in Video Meetings
- Title(参考訳): ビデオ会議における手話ジェスチャのリアルタイムキャプション
- Authors: Sharanya Mukherjee, Md Hishaam Akhtar, Kannadasan R,
- Abstract要約: コンピュータビジョンを用いた手話認識は、聴覚障害者と一般人のコミュニケーション障壁を取り除くことを目的としている。
本稿では,ビデオ通話中のすべての人の字幕に手話を自動的に翻訳するブラウザエクステンションを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It has always been a rather tough task to communicate with someone possessing a hearing impairment. One of the most tested ways to establish such a communication is through the use of sign based languages. However, not many people are aware of the smaller intricacies involved with sign language. Sign language recognition using computer vision aims at eliminating the communication barrier between deaf-mute and ordinary people so that they can properly communicate with others. Recently the pandemic has left the whole world shaken up and has transformed the way we communicate. Video meetings have become essential for everyone, even people with a hearing disability. In recent studies, it has been found that people with hearing disabilities prefer to sign over typing during these video calls. In this paper, we are proposing a browser extension that will automatically translate sign language to subtitles for everyone else in the video call. The Large-scale dataset which contains more than 2000 Word-Level ASL videos, which were performed by over 100 signers will be used.
- Abstract(参考訳): 聴覚障害を持つ人とのコミュニケーションは,常にかなり難しい作業でした。
このようなコミュニケーションを確立する最もテストされた方法の1つは、手話ベースの言語を使うことである。
しかし、手話にかかわるより小さな複雑さに気づいている人は少ない。
コンピュータビジョンを用いた手話認識は、聴覚障害者と一般人のコミュニケーション障壁を解消し、他人と適切にコミュニケーションすることを目的としている。
最近、パンデミックが世界中を揺るがし、私たちのコミュニケーションの仕方を変えました。
ビデオ会議は、聴覚障害のある人でも、誰にとっても不可欠になっている。
近年の研究では、聴覚障害のある人は、ビデオ通話中にタイピングに署名する傾向が見られた。
本稿では,ビデオ通話中のすべての人の字幕に手話を自動的に翻訳するブラウザエクステンションを提案する。
2000以上のWord-Level ASLビデオを含む大規模データセットが100人以上の署名者によって実行される。
関連論文リスト
- Continuous Sign Language Recognition System using Deep Learning with MediaPipe Holistic [1.9874264019909988]
手話はコミュニケーションに視覚を使う聴覚障害者の言語である。
アメリカ手話(ASL)、中国手話(CSL)、インド手話(ISL)など、世界中で約300の手話が実践されている。
論文 参考訳(メタデータ) (2024-11-07T08:19:39Z) - Scaling up Multimodal Pre-training for Sign Language Understanding [96.17753464544604]
手話は、難聴者コミュニティにとってコミュニケーションの主要な意味である。
難聴者と聴覚者のコミュニケーションを容易にするために,手話理解(SLU)タスクのシリーズが研究されている。
これらの課題は、多様な視点から手話のトピックを調査し、手話ビデオの効果的な表現を学ぶ上での課題を提起する。
論文 参考訳(メタデータ) (2024-08-16T06:04:25Z) - EvSign: Sign Language Recognition and Translation with Streaming Events [59.51655336911345]
イベントカメラは、動的手の動きを自然に知覚し、手話作業のための豊富な手作業の手がかりを提供する。
イベントベースSLRおよびSLTタスクのための効率的なトランスフォーマーベースフレームワークを提案する。
計算コストは0.34%に過ぎず,既存の最先端手法に対して良好に機能する。
論文 参考訳(メタデータ) (2024-07-17T14:16:35Z) - Slovo: Russian Sign Language Dataset [83.93252084624997]
本稿では,クラウドソーシングプラットフォームを用いたロシア手話(RSL)ビデオデータセットであるSlovoについて述べる。
データセットには20,000のFullHDレコードが含まれており、194人の署名者が受信した1,000の独立したRSLジェスチャーに分割されている。
論文 参考訳(メタデータ) (2023-05-23T21:00:42Z) - A Comparative Analysis of Techniques and Algorithms for Recognising Sign
Language [0.9311364633437358]
手話はしばしば、難聴者によるコミュニケーションの第一形態として使われる。
聴覚障害者にソーシャル・プラットフォームを提供するヒューマン・コンピュータ・インタフェース・システムを構築する必要がある。
ほとんどの商用手話翻訳システムはセンサーベースで高価で使いづらい。
論文 参考訳(メタデータ) (2023-05-05T10:52:18Z) - Indian Sign Language Recognition Using Mediapipe Holistic [0.0]
インド手話をテキストや音声に変換するために,手話認識のための堅牢なシステムを構築する。
サイン言語に依存した聴覚障害と難聴者のコミュニケーション能力を高めるため、テキスト・ツー・サイン言語パラダイムの作成が不可欠である。
論文 参考訳(メタデータ) (2023-04-20T12:25:47Z) - Vision-Based American Sign Language Classification Approach via Deep
Learning [1.1602089225841632]
アメリカン手話 (American Sign Language, ASL) は、聴覚障害のあるコミュニティが互いにコミュニケーションするために最もよく使われる手話である。
本稿では,障害に関連するコミュニケーション障壁を取り除くためのステップとして,アメリカ手話文字を分類することを目的とした,シンプルなディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2022-04-08T18:01:27Z) - Skeleton Based Sign Language Recognition Using Whole-body Keypoints [71.97020373520922]
手話は聴覚障害者や言語障害者のコミュニケーションに使用される。
また,RGB-D法と組み合わせて最先端の性能を実現することで,Skeletonに基づく音声認識が普及しつつある。
近年のボディポーズ推定用citejin 2020wholeの開発に触発されて,全身キーポイントと特徴に基づく手話認識を提案する。
論文 参考訳(メタデータ) (2021-03-16T03:38:17Z) - Speaker De-identification System using Autoencoders and Adversarial
Training [58.720142291102135]
本稿では,対人訓練とオートエンコーダに基づく話者識別システムを提案する。
実験結果から, 対向学習とオートエンコーダを組み合わせることで, 話者検証システムの誤り率が同等になることがわかった。
論文 参考訳(メタデータ) (2020-11-09T19:22:05Z) - Silent Speech Interfaces for Speech Restoration: A Review [59.68902463890532]
サイレント音声インタフェース (SSI) の研究は、重度音声障害の患者に対して、代替的で拡張的なコミュニケーション方法を提供することを目的としている。
SSIは、コミュニケーションを可能にするために、音声生成中に人体によって生成される非音響バイオシグナーに依存している。
現在、ほとんどのSSIは、健康なユーザーのために実験室でのみ検証されている。
論文 参考訳(メタデータ) (2020-09-04T11:05:50Z) - Towards A Sign Language Gloss Representation Of Modern Standard Arabic [0.0]
世界の人口の5%以上(4億6600万人)が難聴を負っている。
世界中の聴覚障害者は、手と表情の両方のジェスチャーで手話を使ってコミュニケーションをとることが多い。
論文 参考訳(メタデータ) (2020-05-04T13:56:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。