論文の概要: Modeling Global Body Configurations in American Sign Language
- arxiv url: http://arxiv.org/abs/2009.01468v1
- Date: Thu, 3 Sep 2020 06:20:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 07:18:26.418726
- Title: Modeling Global Body Configurations in American Sign Language
- Title(参考訳): アメリカ手話におけるグローバルボディ構成のモデル化
- Authors: Nicholas Wilkins, Beck Cordes Galbraith, Ifeoma Nwogu
- Abstract要約: アメリカ手話 (American Sign Language, ASL) は、アメリカ合衆国で4番目に一般的に使われている言語である。
ASL(英語: ASL)は、アメリカ合衆国とカナダの英語圏で最も一般的に使われている言語である。
- 参考スコア(独自算出の注目度): 2.8575516056239576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: American Sign Language (ASL) is the fourth most commonly used language in the
United States and is the language most commonly used by Deaf people in the
United States and the English-speaking regions of Canada. Unfortunately, until
recently, ASL received little research. This is due, in part, to its delayed
recognition as a language until William C. Stokoe's publication in 1960.
Limited data has been a long-standing obstacle to ASL research and
computational modeling. The lack of large-scale datasets has prohibited many
modern machine-learning techniques, such as Neural Machine Translation, from
being applied to ASL. In addition, the modality required to capture sign
language (i.e. video) is complex in natural settings (as one must deal with
background noise, motion blur, and the curse of dimensionality). Finally, when
compared with spoken languages, such as English, there has been limited
research conducted into the linguistics of ASL.
We realize a simplified version of Liddell and Johnson's Movement-Hold (MH)
Model using a Probabilistic Graphical Model (PGM). We trained our model on
ASLing, a dataset collected from three fluent ASL signers. We evaluate our PGM
against other models to determine its ability to model ASL. Finally, we
interpret various aspects of the PGM and draw conclusions about ASL phonetics.
The main contributions of this paper are
- Abstract(参考訳): アメリカ手話(アメリカン手話、英: american sign language、asl)は、アメリカ合衆国で4番目によく使われる言語であり、アメリカ合衆国やカナダの英語圏でよく使われる言語である。
残念ながら、最近まで、ASLはほとんど研究されなかった。
これは、1960年にウィリアム・ストコーが出版するまで、言語としての認識が遅れたことによる。
限られたデータは、ASLの研究と計算モデリングの長年の障害であった。
大規模データセットの欠如は、ニューラルネットワーク翻訳など、現代の機械学習技術の多くをASLに適用することを禁じている。
加えて、手話(つまりビデオ)をキャプチャするために必要なモダリティは、自然な設定では複雑である(背景ノイズ、動きのぼやけ、次元の呪いを扱う必要がある)。
最後に、英語などの話し言葉と比較して、ASLの言語学について限定的な研究がなされている。
確率図形モデル (PGM) を用いたLiddell と Johnson's Movement-Hold (MH) Model の簡易版を実現する。
ASLは3つの流線型ASLシグナから収集したデータセットである。
我々はPGMを他のモデルに対して評価し、ASLをモデル化する能力を決定する。
最後に、PGMの様々な側面を解釈し、ASL音声学に関する結論を引き出す。
この論文の主な貢献は
関連論文リスト
- The American Sign Language Knowledge Graph: Infusing ASL Models with Linguistic Knowledge [6.481946043182915]
専門的な言語知識の12つの情報源からコンパイルされたASLKG(American Sign Language Knowledge Graph)を紹介する。
我々は、ASLKGを用いて、3つのASL理解タスクのニューロシンボリックモデルをトレーニングし、ISRで91%のアキュラシーを達成し、14%の未確認のサインのセマンティックな特徴を予測し、36%のYoutube-ASLビデオのトピックを分類した。
論文 参考訳(メタデータ) (2024-11-06T00:16:16Z) - FLEURS-ASL: Including American Sign Language in Massively Multilingual Multitask Evaluation [0.9790236766474201]
FLORES(テキスト用)とFLEURS(音声用)のマルチウェイ並列ベンチマークであるFLEURS-ASLを導入する。
FLEURS-ASLは、ASLと200言語間の様々なタスクをテキストとして、あるいは102言語を音声として評価するために使用することができる。
タイムスタンプトークンと過去のテキストトークンを34秒のコンテキストウィンドウに組み込んだ統一モデリングアプローチを用いて,ASLから英語テキストへのタスクのベースラインを提供する。
また、FLEURS-ASLを用いて、マルチモーダルフロンティアモデルがASLを事実上理解していないことを示す。
論文 参考訳(メタデータ) (2024-08-24T13:59:41Z) - BAUST Lipi: A BdSL Dataset with Deep Learning Based Bangla Sign Language Recognition [0.5497663232622964]
聴覚障害者コミュニティとのコミュニケーションを強化するために、手話の研究が盛んである。
重要な障壁の1つは、包括的なBangla手話データセットがないことである。
18,000個の画像からなる新しいBdSLデータセットを導入し,各画像のサイズを224×224ピクセルとする。
我々は、複数の畳み込み層、アクティベーション機能、ドロップアウト技術、LSTM層を統合するハイブリッド畳み込みニューラルネットワーク(CNN)モデルを考案した。
論文 参考訳(メタデータ) (2024-08-20T03:35:42Z) - Towards Robust Speech Representation Learning for Thousands of Languages [77.2890285555615]
自己教師付き学習(SSL)は、ラベル付きデータの必要性を減らすことで、音声技術をより多くの言語に拡張するのに役立つ。
我々は4057言語にまたがる100万時間以上のデータに基づいて訓練された、ユニバーサル音声のための言語横断言語であるXEUSを提案する。
論文 参考訳(メタデータ) (2024-06-30T21:40:26Z) - SignSpeak: Open-Source Time Series Classification for ASL Translation [0.12499537119440243]
本稿では,低コストでリアルタイムなASL-to-Speech翻訳グローブと手話パターンの学習データセットを提案する。
このデータセットを、LSTM、GRU、Transformersなどの教師付き学習モデルでベンチマークし、最高のモデルが92%の精度を達成した。
当社のオープンソースデータセット、モデル、グローブデザインは、コスト効率を維持しつつ、正確かつ効率的なASLトランスレータを提供する。
論文 参考訳(メタデータ) (2024-06-27T17:58:54Z) - Crosslingual Capabilities and Knowledge Barriers in Multilingual Large Language Models [62.91524967852552]
大規模言語モデル(LLM)は、多言語コーパスの事前訓練のため、一般的に多言語である。
しかし、これらのモデルは言語間で対応する概念を関連付けることができ、効果的にクロスランガルなのでしょうか?
本研究は,言語横断的課題に関する6つの技術 LLM の評価を行った。
論文 参考訳(メタデータ) (2024-06-23T15:15:17Z) - Seamless Language Expansion: Enhancing Multilingual Mastery in Self-Supervised Models [60.09618700199927]
既存のSSLモデルにLoRAを統合して新しい言語を拡張する適応手法を提案する。
また、既存の言語における能力を維持するために、データの組み合わせと再クラスタ化を含む保存戦略も開発している。
論文 参考訳(メタデータ) (2024-06-20T08:13:30Z) - Joint Prediction and Denoising for Large-scale Multilingual
Self-supervised Learning [69.77973092264338]
我々は、より強力な技術がより効率的な事前トレーニングをもたらし、SSLをより多くの研究グループに開放することを示します。
我々は,WavLMのジョイント予測を拡張し,136言語にまたがる40k時間のデータをデノベーションするWavLabLMを提案する。
このモデルではXLS-Rの性能を94%維持でき、データの3%しか保持できない。
論文 参考訳(メタデータ) (2023-09-26T23:55:57Z) - SpeechGLUE: How Well Can Self-Supervised Speech Models Capture Linguistic Knowledge? [45.901645659694935]
音声表現のための自己教師付き学習(SSL)は、様々な下流タスクにうまく適用されている。
本稿では,音声SSL技術が言語知識をうまく捉えることができるかどうかを明らかにすることを目的とする。
論文 参考訳(メタデータ) (2023-06-14T09:04:29Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。