論文の概要: Unsupervised Sign Language Phoneme Clustering using HamNoSys Notation
- arxiv url: http://arxiv.org/abs/2205.10560v1
- Date: Sat, 21 May 2022 10:49:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-05 16:41:16.334972
- Title: Unsupervised Sign Language Phoneme Clustering using HamNoSys Notation
- Title(参考訳): HamNoSys表記を用いた教師なし手話音素クラスタリング
- Authors: Boris Mocialov, Graham Turner and Helen Hastie
- Abstract要約: 本稿では,手話コーパスの自動生成と注釈付けを行う上で,オンラインデータの収集の側面を捉えた。
傾向を考慮すると,手話コーパスの自動生成と注釈付けを追求する上で,オンラインデータの収集の側面を取る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditionally, sign language resources have been collected in controlled
settings for specific tasks involving supervised sign classification or
linguistic studies accompanied by specific annotation type. To date, very few
who explored signing videos found online on social media platforms as well as
the use of unsupervised methods applied to such resources. Due to the fact that
the field is striving to achieve acceptable model performance on the data that
differs from that seen during training calls for more diversity in sign
language data, stepping away from the data obtained in controlled laboratory
settings. Moreover, since the sign language data collection and annotation
carries large overheads, it is desirable to accelerate the annotation process.
Considering the aforementioned tendencies, this paper takes the side of
harvesting online data in a pursuit for automatically generating and annotating
sign language corpora through phoneme clustering.
- Abstract(参考訳): 伝統的に、手話リソースは、特定のアノテーションタイプを伴う教師付き手話分類や言語研究を含む特定のタスクの制御された設定で収集されている。
現在まで、ソーシャルメディアプラットフォーム上でオンラインで見つかった署名ビデオや、そのようなリソースに適用された教師なしの手法を調査している人はほとんどいない。
現場は、訓練中と異なるデータで許容可能なモデル性能を達成するために、手話データにより多くの多様性を求めるため、制御された実験室で得られたデータから離れようとしている。
さらに,手話データ収集やアノテーションにはオーバーヘッドが大きいため,アノテーションプロセスの高速化が望ましい。
本稿では,上記の傾向を考慮すると,音素クラスタリングによる手話コーパスの自動生成と注釈付けを行う上で,オンラインデータの収集の側面を取る。
関連論文リスト
- Gloss Alignment Using Word Embeddings [40.100782464872076]
大規模音声言語モデルを用いて,スポッティングを対応する字幕と整列する手法を提案する。
我々は,この手法がacfmdgsおよびacfbobslデータセットに与える影響を定量的に示す。
論文 参考訳(メタデータ) (2023-08-08T13:26:53Z) - On the Importance of Signer Overlap for Sign Language Detection [65.26091369630547]
我々は,手話検出のための現在のベンチマークデータセットは,一般化が不十分な過度に肯定的な結果であると主張している。
我々は、現在の符号検出ベンチマークデータセットに対するシグナ重なりの影響を詳細に分析することでこれを定量化する。
我々は、重複のない新しいデータセット分割を提案し、より現実的なパフォーマンス評価を可能にします。
論文 参考訳(メタデータ) (2023-03-19T22:15:05Z) - Automatic dense annotation of large-vocabulary sign language videos [85.61513254261523]
自動アノテーションの密度を大幅に高めるための,シンプルでスケーラブルなフレームワークを提案する。
これらのアノテーションは手話研究コミュニティをサポートするために公開されています。
論文 参考訳(メタデータ) (2022-08-04T17:55:09Z) - Classification of Phonological Parameters in Sign Languages [0.0]
言語学的研究はしばしば手話を研究するために記号を構成要素に分解する。
本研究では,手話中の個々の音韻的パラメータを認識するために,一つのモデルを用いる方法を示す。
論文 参考訳(メタデータ) (2022-05-24T13:40:45Z) - Modeling Intensification for Sign Language Generation: A Computational
Approach [13.57903290481737]
エンドツーエンドの手話生成モデルは手話の韻律を正確に表現していない。
我々は、データ駆動方式で強化をモデル化することで、生成した手話における韻律を改善することを目指している。
自動メトリクスで評価すると、強化モデリングにおける我々の取り組みがより良い結果をもたらすことが分かりました。
論文 参考訳(メタデータ) (2022-03-18T01:13:21Z) - On Guiding Visual Attention with Language Specification [76.08326100891571]
注意をそらすのではなく,タスク関連機能に分類証拠を限定するためのアドバイスとして,ハイレベルな言語仕様を用いる。
この方法で空間的注意を監督することは、偏りのあるノイズのあるデータを用いた分類タスクの性能を向上させる。
論文 参考訳(メタデータ) (2022-02-17T22:40:19Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Improving Classification through Weak Supervision in Context-specific
Conversational Agent Development for Teacher Education [1.215785021723604]
教育シナリオ固有の会話エージェントを開発するのに必要な労力は、時間を要する。
アノテーションをモデリングするための従来のアプローチは、何千もの例をラベル付けし、アノテーション間の合意と多数決を計算することに依存してきた。
本稿では,これらの問題に対処するために,多タスク弱監視手法とアクティブラーニングを組み合わせた手法を提案する。
論文 参考訳(メタデータ) (2020-10-23T23:39:40Z) - Watch, read and lookup: learning to spot signs from multiple supervisors [99.50956498009094]
孤立した手話のビデオが与えられた場合、我々のタスクは、連続的かつ協調的な手話ビデオで署名されたか、どこで署名されたかを特定することである。
我々は,(1)既存の粗末なラベル付き映像を見ること,(2)追加の弱スーパービジョンを提供する関連字幕を読むこと,(3)視覚手話辞書で単語を検索すること,の3つを用いて,利用可能な複数のタイプの監督手法を用いてモデルを訓練する。
これらの3つのタスクは、ノイズコントラスト推定と多重インスタンス学習の原則を用いて統合学習フレームワークに統合される。
論文 参考訳(メタデータ) (2020-10-08T14:12:56Z) - Leveraging Adversarial Training in Self-Learning for Cross-Lingual Text
Classification [52.69730591919885]
本稿では,ラベル保存型入力摂動の最大損失を最小限に抑える半教師付き対向学習法を提案する。
多様な言語群に対する文書分類と意図分類において,有効性が著しく向上するのを観察する。
論文 参考訳(メタデータ) (2020-07-29T19:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。