論文の概要: GLoT: A Novel Gated-Logarithmic Transformer for Efficient Sign Language Translation
- arxiv url: http://arxiv.org/abs/2502.12223v1
- Date: Mon, 17 Feb 2025 14:31:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:08:33.057877
- Title: GLoT: A Novel Gated-Logarithmic Transformer for Efficient Sign Language Translation
- Title(参考訳): GLoT:手話翻訳を効率化する新しいGated-Logarithmic Transformer
- Authors: Nada Shahin, Leila Ismail,
- Abstract要約: 本稿では,Gated-Logarithmic Transformer (GLoT) を提案する。
我々の結果は、GLoTがすべてのメトリクスで他のモデルより一貫して優れています。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Machine Translation has played a critical role in reducing language barriers, but its adaptation for Sign Language Machine Translation (SLMT) has been less explored. Existing works on SLMT mostly use the Transformer neural network which exhibits low performance due to the dynamic nature of the sign language. In this paper, we propose a novel Gated-Logarithmic Transformer (GLoT) that captures the long-term temporal dependencies of the sign language as a time-series data. We perform a comprehensive evaluation of GloT with the transformer and transformer-fusion models as a baseline, for Sign-to-Gloss-to-Text translation. Our results demonstrate that GLoT consistently outperforms the other models across all metrics. These findings underscore its potential to address the communication challenges faced by the Deaf and Hard of Hearing community.
- Abstract(参考訳): 機械翻訳は言語障壁を減らす上で重要な役割を担っているが、手話機械翻訳(SLMT)への適応はあまり検討されていない。
SLMTの既存の研究は主に、手話の動的性質のために低性能を示すTransformer Neural Networkを使用している。
本稿では,Gated-Logarithmic Transformer (GLoT) を提案する。
本稿では,GloTを変換器と変換器の融合モデルで総合的に評価し,手話からテキストへの変換を行う。
我々の結果は、GLoTがすべてのメトリクスで他のモデルより一貫して優れています。
これらの知見は,難聴者・難聴者コミュニティが直面するコミュニケーション課題に対処する可能性を明らかにするものである。
関連論文リスト
- American Sign Language to Text Translation using Transformer and Seq2Seq with LSTM [0.0]
アメリカ手話(American Sign Language)は、手話の一つ。
ニューラルマシン翻訳技術の開発は手話翻訳に向けて進んでいる。
Transformerは自然言語処理の最先端となった。
論文 参考訳(メタデータ) (2024-09-17T04:00:33Z) - Efficient Speech Translation with Dynamic Latent Perceivers [0.0]
トランスフォーマーは音声翻訳の主要なアーキテクチャであり、翻訳品質を大幅に向上させた。
本稿では、Perceiverエンコーダを用いて、音声入力を固定長の潜在表現にマッピングすることで、複雑さを軽減することを提案する。
また、動的遅延アクセス(DLA)により、計算オーバーヘッドを伴わずにより大きな潜在空間をアンロックする、Perceiversのトレーニング方法も導入する。
論文 参考訳(メタデータ) (2022-10-28T16:52:48Z) - Exploring Transformers in Natural Language Generation: GPT, BERT, and
XLNet [1.8047694351309207]
近年,自然言語生成(nlg)における注意機構の増大とトランスフォーマーの台頭がみられている。
本稿では,GPT,BERT,XLNetの3つのトランスフォーマーモデルについて検討する。
詩の生成から要約まで、テキスト生成はトランスフォーマーベースの言語モデルが画期的な結果をもたらすため、利益をもたらす。
論文 参考訳(メタデータ) (2021-02-16T09:18:16Z) - Bayesian Transformer Language Models for Speech Recognition [59.235405107295655]
トランスフォーマーで表現される最先端のニューラルネットワークモデル(LM)は非常に複雑である。
本稿では,トランスフォーマーLM推定のためのベイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-09T10:55:27Z) - Glancing Transformer for Non-Autoregressive Neural Machine Translation [58.87258329683682]
単一パス並列生成モデルにおける単語相互依存の学習法を提案する。
単一パスの並列デコードだけで、GLATは8~15倍のスピードアップで高品質な翻訳を生成することができる。
論文 参考訳(メタデータ) (2020-08-18T13:04:03Z) - Is Supervised Syntactic Parsing Beneficial for Language Understanding?
An Empirical Investigation [71.70562795158625]
従来のNLPは、高レベルセマンティック言語理解(LU)の成功に必要な構文解析を長い間保持(教師付き)してきた。
近年のエンドツーエンドニューラルネットワークの出現、言語モデリング(LM)による自己監視、および幅広いLUタスクにおける成功は、この信念に疑問を投げかけている。
本研究では,LM-Pretrained Transformer Network の文脈における意味的LUに対する教師あり構文解析の有用性を実証的に検討する。
論文 参考訳(メタデータ) (2020-08-15T21:03:36Z) - Learning Source Phrase Representations for Neural Machine Translation [65.94387047871648]
本稿では,対応するトークン表現から句表現を生成可能な注意句表現生成機構を提案する。
実験では,強力なトランスフォーマーベースライン上でのWMT 14の英語・ドイツ語・英語・フランス語タスクにおいて,大幅な改善が得られた。
論文 参考訳(メタデータ) (2020-06-25T13:43:11Z) - Applying the Transformer to Character-level Transduction [68.91664610425114]
この変換器は、様々な単語レベルのNLPタスクにおいて、繰り返しニューラルネットワークに基づくシーケンス・ツー・シーケンスモデルより優れていることが示されている。
十分なバッチサイズで、トランスフォーマーは文字レベルタスクの繰り返しモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-20T17:25:43Z) - Progressive Transformers for End-to-End Sign Language Production [43.45785951443149]
自動手話生成(SLP)の目的は、音声言語を手話ビデオの連続ストリームに変換することである。
主に孤立したSLPに関する以前の研究は、完全な符号列の連続領域により適したアーキテクチャの必要性を示している。
本稿では,手話を表す音声文から連続的な3Dスケルトンへの変換が可能な新しいアーキテクチャであるProgressive Transformersを提案する。
論文 参考訳(メタデータ) (2020-04-30T15:20:25Z) - Sign Language Transformers: Joint End-to-end Sign Language Recognition
and Translation [59.38247587308604]
本稿では,連続手話認識と翻訳を共同で学習するトランスフォーマーアーキテクチャを提案する。
RWTH-PHOENIX-Weather-2014Tデータセットの認識と翻訳性能の評価を行った。
我々の翻訳ネットワークは、動画を音声言語に、光沢を音声言語翻訳モデルに、どちらよりも優れています。
論文 参考訳(メタデータ) (2020-03-30T21:35:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。