論文の概要: EdGCon: Auto-assigner of Iconicity Ratings Grounded by Lexical
Properties to Aid in Generation of Technical Gestures
- arxiv url: http://arxiv.org/abs/2306.01944v1
- Date: Fri, 2 Jun 2023 23:04:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 21:13:05.782075
- Title: EdGCon: Auto-assigner of Iconicity Ratings Grounded by Lexical
Properties to Aid in Generation of Technical Gestures
- Title(参考訳): edgcon: 技術的ジェスチャの生成を支援するための語彙特性に基づく表現性評価の自動アサイン
- Authors: Sameena Hossain, Payal Kamboj, Aranyak Maity, Tamiko Azuma, Ayan
Banerjee, Sandeep K. S. Gupta
- Abstract要約: American Sign Language (ASL) の技術的ジェスチャーは、その語彙的隣人と同じ形式を最適に共有する。
我々は,ASLの語彙データベースであるASL-LEXを用いて,一連の技術的ジェスチャー内での語彙関係を同定する。
EdGConは80.76%の価格設定を正しく自動割り当てすることができた。
- 参考スコア(独自算出の注目度): 6.234350105794441
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Gestures that share similarities in their forms and are related in their
meanings, should be easier for learners to recognize and incorporate into their
existing lexicon. In that regard, to be more readily accepted as standard by
the Deaf and Hard of Hearing community, technical gestures in American Sign
Language (ASL) will optimally share similar in forms with their lexical
neighbors. We utilize a lexical database of ASL, ASL-LEX, to identify lexical
relations within a set of technical gestures. We use automated identification
for 3 unique sub-lexical properties in ASL- location, handshape and movement.
EdGCon assigned an iconicity rating based on the lexical property similarities
of the new gesture with an existing set of technical gestures and the
relatedness of the meaning of the new technical word to that of the existing
set of technical words. We collected 30 ad hoc crowdsourced technical gestures
from different internet websites and tested them against 31 gestures from the
DeafTEC technical corpus. We found that EdGCon was able to correctly
auto-assign the iconicity ratings 80.76% of the time.
- Abstract(参考訳): 形態の類似性を共有し、その意味に関連があるジェスチャーは、学習者が既存の語彙に認識し、組み込むのが容易である。
その点において、Deaf and Hard of Hearing コミュニティは、より容易に標準として受け入れられるように、American Sign Language (ASL) の技術的なジェスチャーは、語彙的隣人と類似した形式を最適に共有する。
我々は,ASLの語彙データベースであるASL-LEXを用いて,一連の技術的ジェスチャー内での語彙関係を同定する。
asl位置、手形、移動の3つのユニークなサブ語彙特性について自動識別を行う。
edgconは、新しいジェスチャーの語彙的特性と既存の技術的ジェスチャーのセットとの類似性と、新しい技術用語の意味と既存の技術用語のそれとの関連性に基づいて、象徴的評価を割り当てた。
私たちは、異なるインターネットウェブサイトから30のアドホックな技術的ジェスチャーをクラウドソースし、DeafTECの技術コーパスから31のジェスチャーに対してテストしました。
我々はEdGConが80.76%のアイコン性評価を正しく自動割り当てできることを発見した。
関連論文リスト
- Self-Supervised Representation Learning with Spatial-Temporal Consistency for Sign Language Recognition [96.62264528407863]
本研究では,空間的時間的整合性を通じてリッチな文脈を探索する自己教師付きコントラスト学習フレームワークを提案する。
動きと関節のモーダル性の相補性に着想を得て,手話モデルに一階動作情報を導入する。
提案手法は,4つの公開ベンチマークの広範な実験により評価され,新しい最先端性能と顕著なマージンを実現している。
論文 参考訳(メタデータ) (2024-06-15T04:50:19Z) - Incorporating Lexical and Syntactic Knowledge for Unsupervised Cross-Lingual Transfer [4.944761231728674]
我々は"Lexicon-Syntax Enhanced Multilingual BERT"と呼ばれる新しいフレームワークを提案する。
我々は、ベースモデルとしてMultilingual BERTを使用し、学習能力を高めるために2つの手法を用いています。
実験の結果、このフレームワークはゼロショット・クロスランガル転送のすべてのベースラインを一貫して上回ることを示した。
論文 参考訳(メタデータ) (2024-04-25T14:10:52Z) - The Sem-Lex Benchmark: Modeling ASL Signs and Their Phonemes [6.0179345110920455]
本稿では,ASL(American Sign Language)モデリングのための新しいリソースであるSem-Lex Benchmarkを紹介する。
Benchmarkは、現在最大規模で、聴覚障害のASL署名者による84万本以上の単独のサイン制作のビデオで構成されており、インフォームド・コンセントが与えられ、補償を受けた。
ASL-LEXにおける言語情報を活用する一連の実験を行い、Sem-Lex Benchmark(ISR)の実用性と公正性を評価した。
論文 参考訳(メタデータ) (2023-09-30T00:25:43Z) - Language-Oriented Communication with Semantic Coding and Knowledge
Distillation for Text-to-Image Generation [53.97155730116369]
我々は言語指向意味コミュニケーション(LSC)の新しい枠組みを提唱した。
LSCでは、機械は人間の言語メッセージを使って通信し、SC効率のために自然言語処理(NLP)技術を用いて解釈および操作することができる。
1) テキストプロンプトをキーヘッドワードに圧縮するセマンティック・ソース・コーディング(SSC)、2) セマンティック・チャネル・コーディング(SCC)、2) セマンティック・チャネル・コーディング(SCC)、3) セマンティック・ナレッジ・蒸留(SKD)、3) リスナーの言語学習を通じてリスナーに適応したプロンプトを生成するセマンティック・ナレッジ・蒸留(SKD)の3つの革新的なアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-09-20T08:19:05Z) - Natural Language-Assisted Sign Language Recognition [28.64871971445024]
自然言語支援手話認識フレームワークを提案する。
グルース(記号ラベル)に含まれる意味情報を利用して、手話における視覚的に区別できない記号(VISigns)の問題を緩和する。
提案手法は, MSASL, WLASL, NMFs-CSLの3つのベンチマークに対して, 最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - Weakly-supervised Fingerspelling Recognition in British Sign Language
Videos [85.61513254261523]
従来の指スペル認識法は、British Sign Language (BSL) に焦点を絞っていない
従来の手法とは対照的に,本手法はトレーニング用字幕の弱いアノテーションのみを使用する。
本稿では,このタスクに適応したTransformerアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-16T15:02:36Z) - Lexical Access Model for Italian -- Modeling human speech processing:
identification of words in running speech toward lexical access based on the
detection of landmarks and other acoustic cues to features [2.033475676482581]
本研究の目的は、発話中の単語を識別する際、人間を模倣するシステムを開発することである。
我々はスティーブンスの語彙アクセスモデルに基づくイタリア語の音声認識システムを構築した。
論文 参考訳(メタデータ) (2021-06-24T10:54:56Z) - Skeleton Based Sign Language Recognition Using Whole-body Keypoints [71.97020373520922]
手話は聴覚障害者や言語障害者のコミュニケーションに使用される。
また,RGB-D法と組み合わせて最先端の性能を実現することで,Skeletonに基づく音声認識が普及しつつある。
近年のボディポーズ推定用citejin 2020wholeの開発に触発されて,全身キーポイントと特徴に基づく手話認識を提案する。
論文 参考訳(メタデータ) (2021-03-16T03:38:17Z) - BSL-1K: Scaling up co-articulated sign language recognition using
mouthing cues [106.21067543021887]
ビデオデータから高品質なアノテーションを得るために,シグナリングキューの使い方を示す。
BSL-1Kデータセット(英: BSL-1K dataset)は、イギリス手話(英: British Sign Language, BSL)の集合体である。
論文 参考訳(メタデータ) (2020-07-23T16:59:01Z) - Reinforcement learning of minimalist grammars [0.5862282909017474]
最先端の言語技術は、関連するキーワードに対して音響解析された音声信号をスキャンする。
単語はセマンティックスロットに挿入され、ユーザの意図を解釈する。
メンタルレキシコンは、ユーザとのインタラクション中に認知エージェントによって取得されなければならない。
論文 参考訳(メタデータ) (2020-04-30T14:25:58Z) - Transferring Cross-domain Knowledge for Video Sign Language Recognition [103.9216648495958]
単語レベルの手話認識(WSLR)は手話解釈の基本課題である。
ドメイン不変の視覚概念を学習し、サブタイトルのニュースサインの知識を伝達することでWSLRモデルを肥大化させる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-08T03:05:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。