論文の概要: E-TSL: A Continuous Educational Turkish Sign Language Dataset with Baseline Methods
- arxiv url: http://arxiv.org/abs/2405.02984v1
- Date: Sun, 5 May 2024 16:07:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 15:33:57.871338
- Title: E-TSL: A Continuous Educational Turkish Sign Language Dataset with Baseline Methods
- Title(参考訳): E-TSL: ベースライン手法による連続的なトルコ手話データセット
- Authors: Şükrü Öztürk, Hacer Yalim Keles,
- Abstract要約: 本研究は,5年生,6年生,8年生を対象に,オンライントルコ語授業から収集した連続的トルコ手話データセットについて紹介する。
データセットは、合計24時間近くの1,410本のビデオで構成され、11人の署名者によるパフォーマンスを含んでいる。
特に64%がシングルトン語、85%がまれな単語で、5回未満の出現である。
- 参考スコア(独自算出の注目度): 2.0257616108612373
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study introduces the continuous Educational Turkish Sign Language (E-TSL) dataset, collected from online Turkish language lessons for 5th, 6th, and 8th grades. The dataset comprises 1,410 videos totaling nearly 24 hours and includes performances from 11 signers. Turkish, an agglutinative language, poses unique challenges for sign language translation, particularly with a vocabulary where 64% are singleton words and 85% are rare words, appearing less than five times. We developed two baseline models to address these challenges: the Pose to Text Transformer (P2T-T) and the Graph Neural Network based Transformer (GNN-T) models. The GNN-T model achieved 19.13% BLEU-1 score and 3.28% BLEU-4 score, presenting a significant challenge compared to existing benchmarks. The P2T-T model, while demonstrating slightly lower performance in BLEU scores, achieved a higher ROUGE-L score of 22.09%. Additionally, we benchmarked our model using the well-known PHOENIX-Weather 2014T dataset to validate our approach.
- Abstract(参考訳): 本研究では,第5学年,第6学年,第8学年を対象に,オンライントルコ語授業から収集した連続教育トルコ手話データセットについて紹介する。
データセットは、合計24時間近くの1,410本のビデオで構成され、11人の署名者によるパフォーマンスを含んでいる。
特に64%がシングルトン語、85%がまれな単語で、5回未満の出現である。
P2T-T(Pose to Text Transformer)モデルとGNN-T(Graph Neural Network Based Transformer)モデルという2つのベースラインモデルを開発した。
GNN-Tは19.13%のBLEU-1スコアと3.28%のBLEU-4スコアを達成した。
P2T-TモデルはBLEUスコアでは若干低い性能を示したが、ROUGE-Lスコアは22.09%向上した。
さらに、よく知られたPHOENIX-Weather 2014Tデータセットを使ってモデルをベンチマークし、アプローチを検証する。
関連論文リスト
- TookaBERT: A Step Forward for Persian NLU [3.2769173057785212]
ペルシャのデータを使って2つの新しいBERTモデルをトレーニングし導入する。
14種類のペルシアの自然言語理解(NLU)タスクにまたがる既存の7つのモデルと比較する。
我々のより大きなモデルは競争に勝り、少なくとも2.8ポイントの平均的な改善を示している。
論文 参考訳(メタデータ) (2024-07-23T11:12:47Z) - Benchmarks Underestimate the Readiness of Multi-lingual Dialogue Agents [39.92509218078164]
テキスト内学習が多言語TODに取り組むのに十分であることを示す。
我々は、中国語、英語、フランス語、韓国語、ヒンディー語、およびコードミキシングされたヒンディー語に12のドメインを持つ多言語TODデータセットX-RiSAWOZのアプローチを検証した。
論文 参考訳(メタデータ) (2024-05-28T05:33:13Z) - TextSquare: Scaling up Text-Centric Visual Instruction Tuning [64.55339431760727]
大規模かつ高品質な命令チューニングデータセットSquare-10Mを作成するための新しいアプローチを提案する。
われわれのモデルであるTextSquareは、最先端のText中心のMLLMをはるかに上回っている。
さらに、GPT4VやGeminiといったトップクラスのモデルでは、テキスト中心のベンチマークを10つ中6つで上回っている。
論文 参考訳(メタデータ) (2024-04-19T11:38:08Z) - Retrieval is Accurate Generation [99.24267226311157]
本稿では,支援文書の集合からコンテキスト認識句を選択する新しい手法を提案する。
本モデルでは,検索対象のベースラインの中で,最高の性能と低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-02-27T14:16:19Z) - Breaking Language Barriers in Multilingual Mathematical Reasoning:
Insights and Observations [90.73517523001149]
本稿では, マルチリンガル数学推論 (xMR) LLM の探索と学習の先駆者である。
翻訳を利用して,最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
我々は、MathOctopusという名の強力なxMR LLMを構築するための異なるトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-10-31T08:09:20Z) - Text Classification via Large Language Models [63.1874290788797]
テキスト分類に関わる複雑な言語現象に対処するために、Clue And Reasoning Prompting (CARP)を導入する。
注目すべきは、CARPが5つの広く使用されているテキスト分類ベンチマークのうち4つで新しいSOTAパフォーマンスを得ることだ。
さらに重要なのは、CARPが低リソースとドメイン適応のセットアップで素晴らしい能力を提供します。
論文 参考訳(メタデータ) (2023-05-15T06:24:45Z) - IndicSUPERB: A Speech Processing Universal Performance Benchmark for
Indian languages [16.121708272597154]
インド12言語における音声認識のためのIndicSUPERBベンチマークをリリースする。
一般的に使用されているベースラインベンチマークとともに、さまざまな自己教師付きモデルをトレーニングし、評価する。
言語固有の微調整モデルはほとんどのタスクのベースラインよりも正確であることを示す。
論文 参考訳(メタデータ) (2022-08-24T20:14:52Z) - Few-shot Learning with Multilingual Language Models [66.49496434282564]
多様な言語群をカバーするバランスの取れたコーパス上で,多言語の自動回帰言語モデルを訓練する。
私たちの最大のモデルは、20以上の代表言語で数ショットの学習において、新しい最先端の技術を定めています。
本稿では,モデルがどこで成功し,失敗するかを詳細に分析し,特に言語間の文脈内学習を可能にすることを示す。
論文 参考訳(メタデータ) (2021-12-20T16:52:35Z) - Automatic Standardization of Colloquial Persian [15.192770717442302]
ペルシャ語のほとんどの自然言語処理ツールは、テキストが標準形式であると仮定している。
本稿では,シーケンシャル・ツー・シーケンス変換に基づく簡易かつ効果的な標準化手法について述べる。
論文 参考訳(メタデータ) (2020-12-10T18:39:26Z) - Multilingual Speech Translation with Efficient Finetuning of Pretrained
Models [82.22294901727933]
最小限のLNA(LayerNorm and Attention)ファインタニングは、ゼロショットのクロスリンガルおよびクロスモーダリティ転送能力を実現することができる。
本手法は多言語多言語モデルにおいて強いゼロショット性能を示す。
論文 参考訳(メタデータ) (2020-10-24T08:15:08Z) - KUISAIL at SemEval-2020 Task 12: BERT-CNN for Offensive Speech
Identification in Social Media [0.2148535041822524]
我々は,CNNとBERTを組み合わせる方が,BERTを単独で使用するよりも優れていることを示す。
本稿では、アラビア語のための事前訓練されたトランスフォーマー言語モデルであるアラビアBERTを紹介する。
論文 参考訳(メタデータ) (2020-07-26T17:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。