論文の概要: American Sign Language Identification Using Hand Trackpoint Analysis
- arxiv url: http://arxiv.org/abs/2010.10590v3
- Date: Tue, 19 Jan 2021 21:11:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 05:54:20.417617
- Title: American Sign Language Identification Using Hand Trackpoint Analysis
- Title(参考訳): ハンドトラックポイント解析を用いたアメリカ手話識別
- Authors: Yugam Bajaj and Puru Malhotra
- Abstract要約: ハンドトラックポイントを用いたアメリカ手話識別のための新しい機械学習ベースパイプラインを提案する。
我々は手の動きを,システムへの入力として機能する一連のハンドトラックポイント座標に変換する。
我々のシステムは、アメリカの手話のジェスチャーを識別するために95.66%の精度を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sign Language helps people with Speaking and Hearing Disabilities communicate
with others efficiently. Sign Language identification is a challenging area in
the field of computer vision and recent developments have been able to achieve
near perfect results for the task, though some challenges are yet to be solved.
In this paper we propose a novel machine learning based pipeline for American
Sign Language identification using hand track points. We convert a hand gesture
into a series of hand track point coordinates that serve as an input to our
system. In order to make the solution more efficient, we experimented with 28
different combinations of pre-processing techniques, each run on three
different machine learning algorithms namely k-Nearest Neighbours, Random
Forests and a Neural Network. Their performance was contrasted to determine the
best pre-processing scheme and algorithm pair. Our system achieved an Accuracy
of 95.66% to identify American sign language gestures.
- Abstract(参考訳): 手話(Sign Language)は、話すことや聴覚障害者が他人と効率的にコミュニケーションするのを助ける。
手話の識別はコンピュータビジョンの分野では難しい領域であり、近年の開発ではタスクのほぼ完全な結果を得ることができたが、いくつかの課題はまだ解決されていない。
本稿では,ハンドトラックポイントを用いたアメリカ手話識別のための新しい機械学習ベースパイプラインを提案する。
我々は手の動きを,システムへの入力として機能する一連のハンドトラックポイント座標に変換する。
ソリューションをより効率的にするために,前処理技術の28の異なる組み合わせを実験し,それぞれがk-nearest近傍,ランダムフォレスト,ニューラルネットワークという3つの機械学習アルゴリズムで実行した。
その性能は、最高の前処理方式とアルゴリズムペアを決定するために対比された。
我々のシステムは、アメリカ手話のジェスチャーを識別するために95.66%の精度を達成した。
関連論文リスト
- MENTOR: Multilingual tExt detectioN TOward leaRning by analogy [59.37382045577384]
本研究では,シーンイメージ内の視覚領域と見えない言語領域の両方を検出し,識別するフレームワークを提案する。
mentOR」は、ゼロショット学習と少数ショット学習の学習戦略を多言語シーンテキスト検出のために実現した最初の作品である。
論文 参考訳(メタデータ) (2024-03-12T03:35:17Z) - Sign Language Conversation Interpretation Using Wearable Sensors and
Machine Learning [0.0]
様々な難聴で苦しむ人々の数は、2019年に17億5000万人に達した。
本稿では,3フレキシブルセンサのウェアラブルデバイスを用いて得られたデータをもとに,手話自動認識システムの概念の実証を行う。
論文 参考訳(メタデータ) (2023-12-19T07:06:32Z) - Toward American Sign Language Processing in the Real World: Data, Tasks,
and Methods [15.77894358993113]
インターネットから収集した署名ビデオを用いて,手話の自動処理について検討した。
ChicagoFSWild、ChicagoFSWild+、OpenASLの3つの大規模ASLデータセットを紹介します。
そこで本研究では,指スペル検出と検索という,実世界の指スペルベースアプリケーションを構築するための2つのタスクを提案する。
論文 参考訳(メタデータ) (2023-08-23T20:38:19Z) - On the Importance of Signer Overlap for Sign Language Detection [65.26091369630547]
我々は,手話検出のための現在のベンチマークデータセットは,一般化が不十分な過度に肯定的な結果であると主張している。
我々は、現在の符号検出ベンチマークデータセットに対するシグナ重なりの影響を詳細に分析することでこれを定量化する。
我々は、重複のない新しいデータセット分割を提案し、より現実的なパフォーマンス評価を可能にします。
論文 参考訳(メタデータ) (2023-03-19T22:15:05Z) - Learning Language-Conditioned Robot Behavior from Offline Data and
Crowd-Sourced Annotation [80.29069988090912]
本研究では,ロボットインタラクションの大規模なオフラインデータセットから視覚に基づく操作タスクを学習する問題について検討する。
クラウドソースの自然言語ラベルを用いたオフラインロボットデータセットの活用を提案する。
提案手法は目標画像仕様と言語条件付き模倣技術の両方を25%以上上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-02T17:42:13Z) - Real-time Indian Sign Language (ISL) Recognition [0.45880283710344055]
本稿では,インド手話(ISL)のポーズやジェスチャーをリアルタイムで認識するシステムを提案する。
既存のソリューションは比較的低い精度を提供するか、リアルタイムに動作しない。
33のポーズとISLからのジェスチャーを識別できる。
論文 参考訳(メタデータ) (2021-08-24T21:49:21Z) - Skeleton Based Sign Language Recognition Using Whole-body Keypoints [71.97020373520922]
手話は聴覚障害者や言語障害者のコミュニケーションに使用される。
また,RGB-D法と組み合わせて最先端の性能を実現することで,Skeletonに基づく音声認識が普及しつつある。
近年のボディポーズ推定用citejin 2020wholeの開発に触発されて,全身キーポイントと特徴に基づく手話認識を提案する。
論文 参考訳(メタデータ) (2021-03-16T03:38:17Z) - Seeing wake words: Audio-visual Keyword Spotting [103.12655603634337]
KWS-Netは、類似マップ中間表現を用いてタスクをシーケンスマッチングとパターン検出に分離する新しい畳み込みアーキテクチャである。
本手法は他の言語,特にフランス語とドイツ語に一般化し,より少ない言語データで英語に匹敵する性能が得られることを示す。
論文 参考訳(メタデータ) (2020-09-02T17:57:38Z) - Novel Approach to Use HU Moments with Image Processing Techniques for
Real Time Sign Language Communication [0.0]
手話通信装置(SLC)は,手話利用者と他国との言語障壁を解決するために設計されている。
システムは選択した手話記号を84%の精度で認識できる。
論文 参考訳(メタデータ) (2020-07-20T03:10:18Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。