論文の概要: Example-Based Machine Translation from Text to a Hierarchical
Representation of Sign Language
- arxiv url: http://arxiv.org/abs/2205.03314v1
- Date: Fri, 6 May 2022 15:48:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 13:29:11.573499
- Title: Example-Based Machine Translation from Text to a Hierarchical
Representation of Sign Language
- Title(参考訳): テキストから手話の階層的表現への例に基づく機械翻訳
- Authors: \'Elise Bertin-Lem\'ee, Annelies Braffort, Camille Challant, Claire
Danet, Michael Filhol
- Abstract要約: 本稿では,テキスト・トゥ・サイン翻訳の原本について述べる。
これは、AZeeにおける手話ビデオのテキストと階層的な形式記述の間のアライメントのドメイン固有の並列コーパスを使用して、データの不足を補う。
提案アルゴリズムは、ソーステキストに存在する類似性の検出に基づいて、整列セグメントのマッチングと置換を利用して、複数の候補翻訳を構築する。
結果として得られる翻訳は、アバターシステムへの入力として使用されるように設計されたAZee式(英語版)の形式である。
- 参考スコア(独自算出の注目度): 1.3999481573773074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article presents an original method for Text-to-Sign Translation. It
compensates data scarcity using a domain-specific parallel corpus of alignments
between text and hierarchical formal descriptions of Sign Language videos in
AZee. Based on the detection of similarities present in the source text, the
proposed algorithm recursively exploits matches and substitutions of aligned
segments to build multiple candidate translations for a novel statement. This
helps preserving Sign Language structures as much as possible before falling
back on literal translations too quickly, in a generative way. The resulting
translations are in the form of AZee expressions, designed to be used as input
to avatar synthesis systems. We present a test set tailored to showcase its
potential for expressiveness and generation of idiomatic target language, and
observed limitations. This work finally opens prospects on how to evaluate
translation and linguistic aspects, such as accuracy and grammatical fluency.
- Abstract(参考訳): 本稿では,テキスト対符号翻訳の原文について述べる。
これは、AZeeにおける手話ビデオのテキストと階層的な形式記述の間のアライメントのドメイン固有の並列コーパスを使用して、データの不足を補う。
提案アルゴリズムは,ソーステキストに存在する類似性の検出に基づいて,一致セグメントの一致と置換を再帰的に活用し,新しい文に対する複数の候補翻訳を構築する。
これによって手話の構造を可能な限り保存し、リテラルの翻訳を高速に生成することが可能になる。
結果として得られた翻訳は、アバター合成システムへの入力として使用されるように設計されたアゼ表現の形で行われる。
対象言語の表現性と生成の可能性を実証し,その限界を観察するテストセットを提示する。
この研究は最終的に、正確性や文法の流布など、翻訳と言語的側面を評価するための展望を開放する。
関連論文リスト
- From Rule-Based Models to Deep Learning Transformers Architectures for Natural Language Processing and Sign Language Translation Systems: Survey, Taxonomy and Performance Evaluation [0.0]
効率的なサイン駆動型統合エンドツーエンド翻訳システムの必要性が高まっている。
本稿では,リアルタイムのQOL(Quality-of-Service sign language)ma-chine翻訳システムの要件について述べる。
論文 参考訳(メタデータ) (2024-08-27T07:11:45Z) - Explicit Syntactic Guidance for Neural Text Generation [45.60838824233036]
生成文法は、人間が言語文法を学習することで自然言語のテキストを生成することを示唆している。
本稿では,トップダウン方向の選挙区解析木に案内されたシーケンスを生成する構文誘導型生成スキーマを提案する。
パラフレーズ生成と機械翻訳の実験により,提案手法が自己回帰ベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2023-06-20T12:16:31Z) - Decomposed Prompting for Machine Translation Between Related Languages
using Large Language Models [55.35106713257871]
DecoMTは、単語チャンク翻訳のシーケンスに翻訳プロセスを分解する、数発のプロンプトの新しいアプローチである。
DecoMTはBLOOMモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-22T14:52:47Z) - Dual-Alignment Pre-training for Cross-lingual Sentence Embedding [79.98111074307657]
本稿では,言語間文埋め込みのためのDAP(Dual-alignment pre-training)フレームワークを提案する。
そこで本研究では,一方の文脈化トークン表現を用いて翻訳相手を再構成する,新しい表現翻訳学習(RTL)タスクを提案する。
我々の手法は文の埋め込みを大幅に改善できる。
論文 参考訳(メタデータ) (2023-05-16T03:53:30Z) - Multilingual Extraction and Categorization of Lexical Collocations with
Graph-aware Transformers [86.64972552583941]
我々は,グラフ対応トランスフォーマアーキテクチャにより拡張されたBERTに基づくシーケンスタグ付けモデルを提案し,コンテキストにおけるコロケーション認識の課題について評価した。
以上の結果から, モデルアーキテクチャにおける構文的依存関係を明示的に符号化することは有用であり, 英語, スペイン語, フランス語におけるコロケーションのタイプ化の差異について考察する。
論文 参考訳(メタデータ) (2022-05-23T16:47:37Z) - Unsupervised Word Translation Pairing using Refinement based Point Set
Registration [8.568050813210823]
単語埋め込みの言語間アライメントは、言語間の知識伝達において重要な役割を果たす。
現在の教師なしのアプローチは、言語にまたがる単語埋め込み空間の幾何学的構造における類似性に依存している。
本稿では,バイリンガル単語の共有ベクトル空間への埋め込みを教師なしでマッピングするBioSpereを提案する。
論文 参考訳(メタデータ) (2020-11-26T09:51:29Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z) - Sign Language Transformers: Joint End-to-end Sign Language Recognition
and Translation [59.38247587308604]
本稿では,連続手話認識と翻訳を共同で学習するトランスフォーマーアーキテクチャを提案する。
RWTH-PHOENIX-Weather-2014Tデータセットの認識と翻訳性能の評価を行った。
我々の翻訳ネットワークは、動画を音声言語に、光沢を音声言語翻訳モデルに、どちらよりも優れています。
論文 参考訳(メタデータ) (2020-03-30T21:35:09Z) - Multilingual Alignment of Contextual Word Representations [49.42244463346612]
BERTはXNLIのゼロショット性能をベースモデルに比べて大幅に改善した。
単語検索の文脈バージョンを導入し、下流のゼロショット転送とよく相関していることを示す。
これらの結果は、大規模多言語事前学習モデルの理解に有用な概念としてコンテキストアライメントをサポートする。
論文 参考訳(メタデータ) (2020-02-10T03:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。