論文の概要: Unsupervised Sign Language Phoneme Clustering using HamNoSys Notation
- arxiv url: http://arxiv.org/abs/2205.10560v1
- Date: Sat, 21 May 2022 10:49:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-05 16:41:16.334972
- Title: Unsupervised Sign Language Phoneme Clustering using HamNoSys Notation
- Title(参考訳): HamNoSys表記を用いた教師なし手話音素クラスタリング
- Authors: Boris Mocialov, Graham Turner and Helen Hastie
- Abstract要約: 本稿では,手話コーパスの自動生成と注釈付けを行う上で,オンラインデータの収集の側面を捉えた。
傾向を考慮すると,手話コーパスの自動生成と注釈付けを追求する上で,オンラインデータの収集の側面を取る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditionally, sign language resources have been collected in controlled
settings for specific tasks involving supervised sign classification or
linguistic studies accompanied by specific annotation type. To date, very few
who explored signing videos found online on social media platforms as well as
the use of unsupervised methods applied to such resources. Due to the fact that
the field is striving to achieve acceptable model performance on the data that
differs from that seen during training calls for more diversity in sign
language data, stepping away from the data obtained in controlled laboratory
settings. Moreover, since the sign language data collection and annotation
carries large overheads, it is desirable to accelerate the annotation process.
Considering the aforementioned tendencies, this paper takes the side of
harvesting online data in a pursuit for automatically generating and annotating
sign language corpora through phoneme clustering.
- Abstract(参考訳): 伝統的に、手話リソースは、特定のアノテーションタイプを伴う教師付き手話分類や言語研究を含む特定のタスクの制御された設定で収集されている。
現在まで、ソーシャルメディアプラットフォーム上でオンラインで見つかった署名ビデオや、そのようなリソースに適用された教師なしの手法を調査している人はほとんどいない。
現場は、訓練中と異なるデータで許容可能なモデル性能を達成するために、手話データにより多くの多様性を求めるため、制御された実験室で得られたデータから離れようとしている。
さらに,手話データ収集やアノテーションにはオーバーヘッドが大きいため,アノテーションプロセスの高速化が望ましい。
本稿では,上記の傾向を考慮すると,音素クラスタリングによる手話コーパスの自動生成と注釈付けを行う上で,オンラインデータの収集の側面を取る。
関連論文リスト
- MS2SL: Multimodal Spoken Data-Driven Continuous Sign Language Production [93.32354378820648]
我々は,手話と非手話のユーザ間のコミュニケーションを緩和する,連続手話生成のための統一フレームワークを提案する。
テキストや音声から抽出した埋め込みを利用したシーケンス拡散モデルを作成し、段階的にサイン予測を生成する。
How2SignとPHOENIX14Tデータセットの実験により、手話生成において、我々のモデルが競合性能を達成することを示す。
論文 参考訳(メタデータ) (2024-07-04T13:53:50Z) - A Tale of Two Languages: Large-Vocabulary Continuous Sign Language Recognition from Spoken Language Supervision [74.972172804514]
我々は,署名された言語と音声のテキスト間の共同埋め込み空間において,署名シーケンスと出力を抽出できるマルチタスクトランスフォーマーモデルCSLR2を導入する。
新しいデータセットアノテーションは、6時間のテストビデオに対して、連続的なサインレベルアノテーションを提供する。
私たちのモデルは、両方のタスクにおいて、過去の技術状況よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-05-16T17:19:06Z) - Transfer Learning for Cross-dataset Isolated Sign Language Recognition in Under-Resourced Datasets [2.512406961007489]
時間グラフ畳み込みに基づく手話認識手法を用いて5つの教師あり移動学習手法を評価する。
特殊な教師付き転写学習法では,ファインタニングに基づく転写学習の改善が可能であることを示す。
論文 参考訳(メタデータ) (2024-03-21T16:36:40Z) - On the Importance of Signer Overlap for Sign Language Detection [65.26091369630547]
我々は,手話検出のための現在のベンチマークデータセットは,一般化が不十分な過度に肯定的な結果であると主張している。
我々は、現在の符号検出ベンチマークデータセットに対するシグナ重なりの影響を詳細に分析することでこれを定量化する。
我々は、重複のない新しいデータセット分割を提案し、より現実的なパフォーマンス評価を可能にします。
論文 参考訳(メタデータ) (2023-03-19T22:15:05Z) - Automatic dense annotation of large-vocabulary sign language videos [85.61513254261523]
自動アノテーションの密度を大幅に高めるための,シンプルでスケーラブルなフレームワークを提案する。
これらのアノテーションは手話研究コミュニティをサポートするために公開されています。
論文 参考訳(メタデータ) (2022-08-04T17:55:09Z) - Classification of Phonological Parameters in Sign Languages [0.0]
言語学的研究はしばしば手話を研究するために記号を構成要素に分解する。
本研究では,手話中の個々の音韻的パラメータを認識するために,一つのモデルを用いる方法を示す。
論文 参考訳(メタデータ) (2022-05-24T13:40:45Z) - Modeling Intensification for Sign Language Generation: A Computational
Approach [13.57903290481737]
エンドツーエンドの手話生成モデルは手話の韻律を正確に表現していない。
我々は、データ駆動方式で強化をモデル化することで、生成した手話における韻律を改善することを目指している。
自動メトリクスで評価すると、強化モデリングにおける我々の取り組みがより良い結果をもたらすことが分かりました。
論文 参考訳(メタデータ) (2022-03-18T01:13:21Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Watch, read and lookup: learning to spot signs from multiple supervisors [99.50956498009094]
孤立した手話のビデオが与えられた場合、我々のタスクは、連続的かつ協調的な手話ビデオで署名されたか、どこで署名されたかを特定することである。
我々は,(1)既存の粗末なラベル付き映像を見ること,(2)追加の弱スーパービジョンを提供する関連字幕を読むこと,(3)視覚手話辞書で単語を検索すること,の3つを用いて,利用可能な複数のタイプの監督手法を用いてモデルを訓練する。
これらの3つのタスクは、ノイズコントラスト推定と多重インスタンス学習の原則を用いて統合学習フレームワークに統合される。
論文 参考訳(メタデータ) (2020-10-08T14:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。