論文の概要: On the Importance of Sign Labeling: The Hamburg Sign Language Notation
System Case Study
- arxiv url: http://arxiv.org/abs/2302.10768v1
- Date: Thu, 19 Jan 2023 11:11:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-26 14:08:28.740927
- Title: On the Importance of Sign Labeling: The Hamburg Sign Language Notation
System Case Study
- Title(参考訳): 記号ラベリングの重要性について--ハンブルク手話表記システムの事例研究
- Authors: Maria Ferlin and Sylwia Majchrowska and Marta Plantykow and Alicja
Kwa\'sniwska and Agnieszka Miko{\l}ajczyk-Bare{\l}a and Milena Olech and
Jakub Nalepa
- Abstract要約: オープンサイン言語コーパスのメンテナが提供したHamNoSysラベルを5つの手話言語で分析する。
本研究は,現在のラベリング手法の限界について,貴重な知見を提供するものである。
- 参考スコア(独自算出の注目度): 5.849513679510834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Labeling is the cornerstone of supervised machine learning, which has been
exploited in a plethora of various applications, with sign language recognition
being one of them. However, such algorithms must be fed with a huge amount of
consistently labeled data during the training process to elaborate a
well-generalizing model. In addition, there is a great need for an automated
solution that works with any nationally diversified sign language. Although
there are language-agnostic transcription systems, such as the Hamburg Sign
Language Notation System (HamNoSys) that describe the signer's initial position
and body movement instead of the glosses' meanings, there are still issues with
providing accurate and reliable labels for every real-world use case. In this
context, the industry relies heavily on manual attribution and labeling of the
available video data. In this work, we tackle this issue and thoroughly analyze
the HamNoSys labels provided by various maintainers of open sign language
corpora in five sign languages, in order to examine the challenges encountered
in labeling video data. We also investigate the consistency and objectivity of
HamNoSys-based labels for the purpose of training machine learning models. Our
findings provide valuable insights into the limitations of the current labeling
methods and pave the way for future research on developing more accurate and
efficient solutions for sign language recognition.
- Abstract(参考訳): ラベル付けは教師付き機械学習の基礎であり、様々なアプリケーションで利用されており、手話認識はその1つとなっている。
しかし、そのようなアルゴリズムはトレーニングプロセス中に大量のラベル付きデータを供給し、十分に一般化されたモデルを精査する必要がある。
加えて、全国的に多様化した手話で機能する自動化ソリューションは、非常に必要です。
ハンブルク手話表記システム(HamNoSys)のような言語に依存しない転写システムがあり、署名者の初期位置と身体の動きを記述しているが、現実のすべてのユースケースに正確で信頼性の高いラベルを提供することには問題がある。
この文脈では、業界は利用可能なビデオデータの手動属性とラベル付けに大きく依存している。
本研究では,この課題に対処し,オープンサイン言語コーパスの様々なメンテナが提供したHamNoSysラベルを5つの手話言語で徹底的に分析し,ビデオデータのラベル付けに直面する課題について検討する。
また,機械学習モデルの学習を目的としたHamNoSysベースのラベルの一貫性と客観性についても検討する。
本研究は,現在のラベリング手法の限界に関する貴重な知見を提供し,手話認識のためのより正確で効率的なソリューションを開発するための今後の研究への道を開く。
関連論文リスト
- AzSLD: Azerbaijani Sign Language Dataset for Fingerspelling, Word, and Sentence Translation with Baseline Software [0.0]
データセットは、ビジョンベースのAzSL翻訳プロジェクトのフレームワーク内で作成された。
AzSLDには30,000の動画が含まれており、それぞれに正確な記号ラベルと対応する言語翻訳が注記されている。
論文 参考訳(メタデータ) (2024-11-19T21:15:47Z) - Improving Continuous Sign Language Recognition with Cross-Lingual Signs [29.077175863743484]
本稿では,多言語手話コーパスを用いた連続手話認識の実現可能性について検討する。
まず、2つのデータセットに現れる独立した記号を含む2つの手話辞書を構築します。
次に、適切に最適化された手話認識モデルを用いて、2つの手話間の手話間の手話マッピングを同定する。
論文 参考訳(メタデータ) (2023-08-21T15:58:47Z) - Learnt Contrastive Concept Embeddings for Sign Recognition [33.72708697077754]
我々は手話と話し言葉のギャップを埋める手話埋め込みを明示的に作成することに注力する。
我々は手話ビデオの言語ラベルに基づく埋め込みの語彙を訓練する。
我々は,NLP法から単語埋め込みを活用可能な概念的類似性損失を開発し,音声言語対応に優れた手話を含む手話埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-18T12:47:18Z) - Label Aware Speech Representation Learning For Language Identification [49.197215416945596]
本稿では,自己指導型表現学習と事前学習タスクのための言語ラベル情報を組み合わせた新しいフレームワークを提案する。
このフレームワークは、ラベル認識音声表現(LASR)学習と呼ばれ、三重項に基づく目的関数を使用して、言語ラベルと自己教師付き損失関数を組み込む。
論文 参考訳(メタデータ) (2023-06-07T12:14:16Z) - Imprecise Label Learning: A Unified Framework for Learning with Various Imprecise Label Configurations [91.67511167969934]
imprecise label learning (ILL)は、様々な不正確なラベル構成で学習を統合するためのフレームワークである。
我々は、ILLが部分ラベル学習、半教師付き学習、雑音ラベル学習にシームレスに適応できることを実証した。
論文 参考訳(メタデータ) (2023-05-22T04:50:28Z) - On the Importance of Signer Overlap for Sign Language Detection [65.26091369630547]
我々は,手話検出のための現在のベンチマークデータセットは,一般化が不十分な過度に肯定的な結果であると主張している。
我々は、現在の符号検出ベンチマークデータセットに対するシグナ重なりの影響を詳細に分析することでこれを定量化する。
我々は、重複のない新しいデータセット分割を提案し、より現実的なパフォーマンス評価を可能にします。
論文 参考訳(メタデータ) (2023-03-19T22:15:05Z) - Scaling up sign spotting through sign language dictionaries [99.50956498009094]
この作業の焦点は、$textitsign spotting$ - 分離されたサインのビデオの場合、$textitwwhere$ と $textitwhere$ の識別が、連続的かつ協調的な手話ビデオで署名されている。
我々は,(1) $textitwatching$既存の映像を口コミでスムーズにラベル付けする,(2) $textitreading$ associated subtitles that provide additional translations of the signed content。
アプローチの有効性を低く検証する。
論文 参考訳(メタデータ) (2022-05-09T10:00:03Z) - Open Source HamNoSys Parser for Multilingual Sign Language Encoding [3.867363075280544]
本稿では,HamNoSysアノテーションを数値ラベルに変換する自動ツールを提案する。
提案する数値マルチラベルは,光沢を損なうことなく,HamNoSysアノテーションの構造を大幅に単純化する。
これらの数値的なマルチラベルは、機械学習モデルのフィードに使用することができるため、視覚ベースの手話認識の開発が加速する可能性がある。
論文 参考訳(メタデータ) (2022-04-14T12:33:33Z) - Sign Language Video Retrieval with Free-Form Textual Queries [19.29003565494735]
本稿では,自由形式のテキストクエリを用いた手話検索の課題について紹介する。
目的は、書かれたクエリに最もよくマッチする、コレクション内の署名ビデオを見つけることである。
本研究では,SPOT-ALIGNを提案する。SPOT-ALIGNは,利用可能なトレーニングデータの範囲と規模を拡大するために,符号スポッティングと特徴アライメントの反復ラウンドをインターリーブするフレームワークである。
論文 参考訳(メタデータ) (2022-01-07T15:22:18Z) - Watch, read and lookup: learning to spot signs from multiple supervisors [99.50956498009094]
孤立した手話のビデオが与えられた場合、我々のタスクは、連続的かつ協調的な手話ビデオで署名されたか、どこで署名されたかを特定することである。
我々は,(1)既存の粗末なラベル付き映像を見ること,(2)追加の弱スーパービジョンを提供する関連字幕を読むこと,(3)視覚手話辞書で単語を検索すること,の3つを用いて,利用可能な複数のタイプの監督手法を用いてモデルを訓練する。
これらの3つのタスクは、ノイズコントラスト推定と多重インスタンス学習の原則を用いて統合学習フレームワークに統合される。
論文 参考訳(メタデータ) (2020-10-08T14:12:56Z) - BSL-1K: Scaling up co-articulated sign language recognition using
mouthing cues [106.21067543021887]
ビデオデータから高品質なアノテーションを得るために,シグナリングキューの使い方を示す。
BSL-1Kデータセット(英: BSL-1K dataset)は、イギリス手話(英: British Sign Language, BSL)の集合体である。
論文 参考訳(メタデータ) (2020-07-23T16:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。