論文の概要: Open Source HamNoSys Parser for Multilingual Sign Language Encoding
- arxiv url: http://arxiv.org/abs/2204.06924v1
- Date: Thu, 14 Apr 2022 12:33:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-15 12:21:51.645522
- Title: Open Source HamNoSys Parser for Multilingual Sign Language Encoding
- Title(参考訳): マルチ言語手話符号化のためのオープンソースHamNoSysパーサ
- Authors: Sylwia Majchrowska and Marta Plantykow and Milena Olech
- Abstract要約: 本稿では,HamNoSysアノテーションを数値ラベルに変換する自動ツールを提案する。
提案する数値マルチラベルは,光沢を損なうことなく,HamNoSysアノテーションの構造を大幅に単純化する。
これらの数値的なマルチラベルは、機械学習モデルのフィードに使用することができるため、視覚ベースの手話認識の開発が加速する可能性がある。
- 参考スコア(独自算出の注目度): 3.867363075280544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents our recent developments in the field of automatic
processing of sign language corpora using the Hamburg Sign Language Annotation
System (HamNoSys). We designed an automated tool to convert HamNoSys
annotations into numerical labels for defined initial features of body and hand
positions. Our proposed numerical multilabels greatly simplify the structure of
HamNoSys annotation without significant loss of gloss meaning. These numerical
multilabels can potentially be used to feed the machine learning models, which
would accelerate the development of vision-based sign language recognition. In
addition, this tool can assist experts in the annotation process to help
identify semantic errors. The code and sample annotations are publicly
available at https://github.com/hearai/parse-hamnosys.
- Abstract(参考訳): 本稿では,Hamburg Sign Language Annotation System (HamNoSys) を用いた手話コーパスの自動処理分野における最近の進歩について述べる。
身体と手の位置の最初の特徴を定義するために,hamnosysアノテーションを数値ラベルに変換する自動ツールを設計した。
提案する数値マルチラベルは,光沢を損なうことなく,HamNoSysアノテーションの構造を大幅に単純化する。
これらの数値マルチラベルは、視覚ベースの手話認識の開発を加速する機械学習モデルへの供給に使用できる可能性がある。
さらにこのツールは、アノテーションプロセスの専門家が意味的エラーを特定するのを助けることができる。
コードとサンプルアノテーションはhttps://github.com/hearai/parse-hamnosysで公開されている。
関連論文リスト
- Gloss-Free End-to-End Sign Language Translation [59.28829048788345]
我々はGloFE(Gloss-Free End-to-end手話翻訳フレームワーク)を設計する。
本手法は,信号の共通意味と対応する音声翻訳を利用して,光沢のない環境下でのSLTの性能を向上させる。
OpenASLやHow2Signなど,大規模データセットの最先端結果を得た。
論文 参考訳(メタデータ) (2023-05-22T09:57:43Z) - Online Gesture Recognition using Transformer and Natural Language
Processing [0.0]
トランスフォーマーアーキテクチャは、自然言語文のグリフストロークに対応するオンラインジェスチャーのための強力なマシンフレームワークを提供する。
トランスフォーマーアーキテクチャは、自然言語文のグリフストロークに対応するオンラインジェスチャーのための強力なマシンフレームワークを提供する。
論文 参考訳(メタデータ) (2023-05-05T10:17:22Z) - Natural Language-Assisted Sign Language Recognition [28.64871971445024]
自然言語支援手話認識フレームワークを提案する。
グルース(記号ラベル)に含まれる意味情報を利用して、手話における視覚的に区別できない記号(VISigns)の問題を緩和する。
提案手法は, MSASL, WLASL, NMFs-CSLの3つのベンチマークに対して, 最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-21T17:59:57Z) - On the Importance of Sign Labeling: The Hamburg Sign Language Notation
System Case Study [5.849513679510834]
オープンサイン言語コーパスのメンテナが提供したHamNoSysラベルを5つの手話言語で分析する。
本研究は,現在のラベリング手法の限界について,貴重な知見を提供するものである。
論文 参考訳(メタデータ) (2023-01-19T11:11:57Z) - SciAnnotate: A Tool for Integrating Weak Labeling Sources for Sequence
Labeling [55.71459234749639]
SciAnnotateはSciAnnotateという名前のテキストアノテーションのためのウェブベースのツールで、科学的なアノテーションツールを指す。
我々のツールは、弱いラベルを作成するために複数のユーザフレンドリーなインターフェースを提供する。
本研究では,Bertifying Conditional Hidden Markov Modelを用いて,ツールが生成する弱いラベルを識別する手法を提案する。
論文 参考訳(メタデータ) (2022-08-07T19:18:13Z) - Automatic dense annotation of large-vocabulary sign language videos [85.61513254261523]
自動アノテーションの密度を大幅に高めるための,シンプルでスケーラブルなフレームワークを提案する。
これらのアノテーションは手話研究コミュニティをサポートするために公開されています。
論文 参考訳(メタデータ) (2022-08-04T17:55:09Z) - Scaling up sign spotting through sign language dictionaries [99.50956498009094]
この作業の焦点は、$textitsign spotting$ - 分離されたサインのビデオの場合、$textitwwhere$ と $textitwhere$ の識別が、連続的かつ協調的な手話ビデオで署名されている。
我々は,(1) $textitwatching$既存の映像を口コミでスムーズにラベル付けする,(2) $textitreading$ associated subtitles that provide additional translations of the signed content。
アプローチの有効性を低く検証する。
論文 参考訳(メタデータ) (2022-05-09T10:00:03Z) - Label Semantics for Few Shot Named Entity Recognition [68.01364012546402]
名前付きエンティティ認識におけるショットラーニングの問題について検討する。
我々は,ラベル名中の意味情報を,モデルに付加的な信号を与え,よりリッチな事前情報を与える手段として活用する。
本モデルは,第1エンコーダによって計算された名前付きエンティティの表現と,第2エンコーダによって計算されたラベル表現とを一致させることを学習する。
論文 参考訳(メタデータ) (2022-03-16T23:21:05Z) - Watch, read and lookup: learning to spot signs from multiple supervisors [99.50956498009094]
孤立した手話のビデオが与えられた場合、我々のタスクは、連続的かつ協調的な手話ビデオで署名されたか、どこで署名されたかを特定することである。
我々は,(1)既存の粗末なラベル付き映像を見ること,(2)追加の弱スーパービジョンを提供する関連字幕を読むこと,(3)視覚手話辞書で単語を検索すること,の3つを用いて,利用可能な複数のタイプの監督手法を用いてモデルを訓練する。
これらの3つのタスクは、ノイズコントラスト推定と多重インスタンス学習の原則を用いて統合学習フレームワークに統合される。
論文 参考訳(メタデータ) (2020-10-08T14:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。