論文の概要: Improving Code-switching Language Modeling with Artificially Generated
Texts using Cycle-consistent Adversarial Networks
- arxiv url: http://arxiv.org/abs/2112.06327v1
- Date: Sun, 12 Dec 2021 21:27:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 07:13:39.311571
- Title: Improving Code-switching Language Modeling with Artificially Generated
Texts using Cycle-consistent Adversarial Networks
- Title(参考訳): 周期整合adversarial networkを用いた人工生成テキストによるコードスイッチ言語モデリングの改善
- Authors: Chia-Yu Li and Ngoc Thang Vu
- Abstract要約: コードスイッチング学習用テキストデータを人工的に生成する手法について検討する。
本稿では,単言語テキストをコードスイッチングテキストに転送するための,サイクル一貫性のある敵対的ネットワークベースのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 41.88097793717185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents our latest effort on improving Code-switching language
models that suffer from data scarcity. We investigate methods to augment
Code-switching training text data by artificially generating them. Concretely,
we propose a cycle-consistent adversarial networks based framework to transfer
monolingual text into Code-switching text, considering Code-switching as a
speaking style. Our experimental results on the SEAME corpus show that
utilising artificially generated Code-switching text data improves consistently
the language model as well as the automatic speech recognition performance.
- Abstract(参考訳): 本稿では,データ不足に苦しむコード交換言語モデルの改善に向けた最新の取り組みについて述べる。
コードスイッチング学習用テキストデータを人工的に生成する手法について検討する。
具体的には,スポーキングスタイルとしてコード切り換えを考慮し,単言語テキストをコード切り換えテキストに転送する,サイクル一貫性のある敵対的ネットワークベースのフレームワークを提案する。
SEAMEコーパスの実験結果から,人工的に生成したコードスイッチングテキストデータを利用することで,言語モデルと音声認識性能が一貫して向上することが示された。
関連論文リスト
- T2S-GPT: Dynamic Vector Quantization for Autoregressive Sign Language Production from Text [59.57676466961787]
本稿では,手話における情報密度に基づいて符号化長を調整できる新しい動的ベクトル量子化(DVA-VAE)モデルを提案する。
PHOENIX14Tデータセットを用いて実験を行い,提案手法の有効性を示した。
我々は,486時間の手話ビデオ,音声,文字起こしテキストを含むドイツ語手話データセットPHOENIX-Newsを提案する。
論文 参考訳(メタデータ) (2024-06-11T10:06:53Z) - Code-Mixed Probes Show How Pre-Trained Models Generalise On Code-Switched Text [1.9185059111021852]
事前学習された言語モデルが3次元のコードスイッチトテキストをどのように扱うかを検討する。
その結果,事前学習した言語モデルは,コードスイッチトテキストへの一般化に有効であることが判明した。
論文 参考訳(メタデータ) (2024-03-07T19:46:03Z) - Language-Oriented Communication with Semantic Coding and Knowledge
Distillation for Text-to-Image Generation [53.97155730116369]
我々は言語指向意味コミュニケーション(LSC)の新しい枠組みを提唱した。
LSCでは、機械は人間の言語メッセージを使って通信し、SC効率のために自然言語処理(NLP)技術を用いて解釈および操作することができる。
1) テキストプロンプトをキーヘッドワードに圧縮するセマンティック・ソース・コーディング(SSC)、2) セマンティック・チャネル・コーディング(SCC)、2) セマンティック・チャネル・コーディング(SCC)、3) セマンティック・ナレッジ・蒸留(SKD)、3) リスナーの言語学習を通じてリスナーに適応したプロンプトを生成するセマンティック・ナレッジ・蒸留(SKD)の3つの革新的なアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-09-20T08:19:05Z) - Code-Switching Text Generation and Injection in Mandarin-English ASR [57.57570417273262]
業界で広く使われているストリーミングモデルTransformer-Transducer(T-T)の性能向上のためのテキスト生成とインジェクションについて検討する。
まず、コードスイッチングテキストデータを生成し、テキスト-to-Speech(TTS)変換または暗黙的に音声とテキストの潜在空間を結び付けることによって、T-Tモデルに生成されたテキストを明示的に注入する戦略を提案する。
実際のマンダリン・イングリッシュ音声の1,800時間を含むデータセットを用いて訓練したT-Tモデルの実験結果から,生成したコードスイッチングテキストを注入する手法により,T-Tモデルの性能が著しく向上することが示された。
論文 参考訳(メタデータ) (2023-03-20T09:13:27Z) - MaskOCR: Text Recognition with Masked Encoder-Decoder Pretraining [68.05105411320842]
本稿では,従来のエンコーダ・デコーダ認識フレームワークにおいて,視覚と言語を事前学習するための新しいアプローチであるMaskOCRを提案する。
マスク付き画像モデリング手法を用いて、未ラベルのテキスト画像の集合を用いて特徴エンコーダを事前学習する。
テキストデータを合成されたテキスト画像に変換し、視覚と言語のデータモダリティを統一し、シーケンスデコーダの言語モデリング能力を向上する。
論文 参考訳(メタデータ) (2022-06-01T08:27:19Z) - From Machine Translation to Code-Switching: Generating High-Quality
Code-Switched Text [14.251949110756078]
我々は、現在最先端のニューラルマシン翻訳モデルを適用し、ヒンディー語-英語のコード切替文を生成する。
言語モデリングタスクにおいて,難易度が大幅に低下することを示す。
また、下流のコードスイッチングされた自然言語推論タスクに対して、私たちのテキストを使用した改善を示す。
論文 参考訳(メタデータ) (2021-07-14T04:46:39Z) - Bridging the Modality Gap for Speech-to-Text Translation [57.47099674461832]
エンド・ツー・エンドの音声翻訳は、ある言語における音声を、エンド・ツー・エンドの方法で他の言語におけるテキストに変換することを目的としている。
既存のほとんどの手法では、音響表現と意味情報を同時に学習するために、単一のエンコーダを持つエンコーダ・デコーダ構造を用いる。
本稿では,音声とテキスト間のモダリティギャップを埋めることで,エンドツーエンドのモデル性能を向上させることを目的とした音声翻訳モデルのための音声テキスト適応手法を提案する。
論文 参考訳(メタデータ) (2020-10-28T12:33:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。