論文の概要: Open Source HamNoSys Parser for Multilingual Sign Language Encoding
- arxiv url: http://arxiv.org/abs/2204.06924v1
- Date: Thu, 14 Apr 2022 12:33:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 12:21:51.645522
- Title: Open Source HamNoSys Parser for Multilingual Sign Language Encoding
- Title(参考訳): マルチ言語手話符号化のためのオープンソースHamNoSysパーサ
- Authors: Sylwia Majchrowska and Marta Plantykow and Milena Olech
- Abstract要約: 本稿では,HamNoSysアノテーションを数値ラベルに変換する自動ツールを提案する。
提案する数値マルチラベルは,光沢を損なうことなく,HamNoSysアノテーションの構造を大幅に単純化する。
これらの数値的なマルチラベルは、機械学習モデルのフィードに使用することができるため、視覚ベースの手話認識の開発が加速する可能性がある。
- 参考スコア(独自算出の注目度): 3.867363075280544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents our recent developments in the field of automatic
processing of sign language corpora using the Hamburg Sign Language Annotation
System (HamNoSys). We designed an automated tool to convert HamNoSys
annotations into numerical labels for defined initial features of body and hand
positions. Our proposed numerical multilabels greatly simplify the structure of
HamNoSys annotation without significant loss of gloss meaning. These numerical
multilabels can potentially be used to feed the machine learning models, which
would accelerate the development of vision-based sign language recognition. In
addition, this tool can assist experts in the annotation process to help
identify semantic errors. The code and sample annotations are publicly
available at https://github.com/hearai/parse-hamnosys.
- Abstract(参考訳): 本稿では,Hamburg Sign Language Annotation System (HamNoSys) を用いた手話コーパスの自動処理分野における最近の進歩について述べる。
身体と手の位置の最初の特徴を定義するために,hamnosysアノテーションを数値ラベルに変換する自動ツールを設計した。
提案する数値マルチラベルは,光沢を損なうことなく,HamNoSysアノテーションの構造を大幅に単純化する。
これらの数値マルチラベルは、視覚ベースの手話認識の開発を加速する機械学習モデルへの供給に使用できる可能性がある。
さらにこのツールは、アノテーションプロセスの専門家が意味的エラーを特定するのを助けることができる。
コードとサンプルアノテーションはhttps://github.com/hearai/parse-hamnosysで公開されている。
関連論文リスト
- FASSILA: A Corpus for Algerian Dialect Fake News Detection and Sentiment Analysis [0.0]
アルジェ方言(AD)は、注釈付きコーパスがないため、課題に直面している。
本研究では,Fake News(FN)検出・感情分析(SA)のための専門コーパスの開発プロセスについて概説する。
論文 参考訳(メタデータ) (2024-11-07T10:39:10Z) - Cross-Attention Based Influence Model for Manual and Nonmanual Sign Language Analysis [4.815056447245669]
手(手)と非手動マーカー(NMM)の両方が、アメリカ手話(ASL)におけるフレーズの完全な意味を提供するのに重要である。
本稿では,2ストリームエンコーダからなる手話翻訳アーキテクチャについて述べる。一方のエンコーダは顔を扱うが,もう一方のエンコーダは上半身を扱う(手)。
本稿では,各入力モードが出力に与える影響を定量化するのに有用な,新しい並列クロスアテンション復号機構を提案する。
論文 参考訳(メタデータ) (2024-09-12T15:55:39Z) - T2S-GPT: Dynamic Vector Quantization for Autoregressive Sign Language Production from Text [59.57676466961787]
本稿では,手話における情報密度に基づいて符号化長を調整できる新しい動的ベクトル量子化(DVA-VAE)モデルを提案する。
PHOENIX14Tデータセットを用いて実験を行い,提案手法の有効性を示した。
我々は,486時間の手話ビデオ,音声,文字起こしテキストを含むドイツ語手話データセットPHOENIX-Newsを提案する。
論文 参考訳(メタデータ) (2024-06-11T10:06:53Z) - On the Importance of Sign Labeling: The Hamburg Sign Language Notation
System Case Study [5.849513679510834]
オープンサイン言語コーパスのメンテナが提供したHamNoSysラベルを5つの手話言語で分析する。
本研究は,現在のラベリング手法の限界について,貴重な知見を提供するものである。
論文 参考訳(メタデータ) (2023-01-19T11:11:57Z) - SciAnnotate: A Tool for Integrating Weak Labeling Sources for Sequence
Labeling [55.71459234749639]
SciAnnotateはSciAnnotateという名前のテキストアノテーションのためのウェブベースのツールで、科学的なアノテーションツールを指す。
我々のツールは、弱いラベルを作成するために複数のユーザフレンドリーなインターフェースを提供する。
本研究では,Bertifying Conditional Hidden Markov Modelを用いて,ツールが生成する弱いラベルを識別する手法を提案する。
論文 参考訳(メタデータ) (2022-08-07T19:18:13Z) - Automatic dense annotation of large-vocabulary sign language videos [85.61513254261523]
自動アノテーションの密度を大幅に高めるための,シンプルでスケーラブルなフレームワークを提案する。
これらのアノテーションは手話研究コミュニティをサポートするために公開されています。
論文 参考訳(メタデータ) (2022-08-04T17:55:09Z) - Scaling up sign spotting through sign language dictionaries [99.50956498009094]
この作業の焦点は、$textitsign spotting$ - 分離されたサインのビデオの場合、$textitwwhere$ と $textitwhere$ の識別が、連続的かつ協調的な手話ビデオで署名されている。
我々は,(1) $textitwatching$既存の映像を口コミでスムーズにラベル付けする,(2) $textitreading$ associated subtitles that provide additional translations of the signed content。
アプローチの有効性を低く検証する。
論文 参考訳(メタデータ) (2022-05-09T10:00:03Z) - Label Semantics for Few Shot Named Entity Recognition [68.01364012546402]
名前付きエンティティ認識におけるショットラーニングの問題について検討する。
我々は,ラベル名中の意味情報を,モデルに付加的な信号を与え,よりリッチな事前情報を与える手段として活用する。
本モデルは,第1エンコーダによって計算された名前付きエンティティの表現と,第2エンコーダによって計算されたラベル表現とを一致させることを学習する。
論文 参考訳(メタデータ) (2022-03-16T23:21:05Z) - Watch, read and lookup: learning to spot signs from multiple supervisors [99.50956498009094]
孤立した手話のビデオが与えられた場合、我々のタスクは、連続的かつ協調的な手話ビデオで署名されたか、どこで署名されたかを特定することである。
我々は,(1)既存の粗末なラベル付き映像を見ること,(2)追加の弱スーパービジョンを提供する関連字幕を読むこと,(3)視覚手話辞書で単語を検索すること,の3つを用いて,利用可能な複数のタイプの監督手法を用いてモデルを訓練する。
これらの3つのタスクは、ノイズコントラスト推定と多重インスタンス学習の原則を用いて統合学習フレームワークに統合される。
論文 参考訳(メタデータ) (2020-10-08T14:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。