論文の概要: Vers la compr\'ehension automatique de la parole bout-en-bout \`a
moindre effort
- arxiv url: http://arxiv.org/abs/2207.00349v1
- Date: Fri, 1 Jul 2022 11:29:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 19:49:29.770163
- Title: Vers la compr\'ehension automatique de la parole bout-en-bout \`a
moindre effort
- Title(参考訳): モイドレ努力におけるパリ・パリ・ブット・エン・ブウト(parole bout-en-bout)の言語的自動生成法
- Authors: Marco Naguib and Fran\c{c}ois Portet and Marco Dinarelli
- Abstract要約: 音声理解の最近の進歩は、大規模音声コーパスで訓練された自己監督モデルの恩恵を受けている。
これらの進歩は、時間とエネルギー消費の点で無視できないコストを持つ。
競争性能を維持しながら、このようなコスト削減を目的とした学習戦略をいくつか比較する。
- 参考スコア(独自算出の注目度): 3.265773263570237
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recent advances in spoken language understanding benefited from
Self-Supervised models trained on large speech corpora. For French, the
LeBenchmark project has made such models available and has led to impressive
progress on several tasks including spoken language understanding. These
advances have a non-negligible cost in terms of computation time and energy
consumption. In this paper, we compare several learning strategies aiming at
reducing such cost while keeping competitive performances. The experiments are
performed on the MEDIA corpus, and show that it is possible to reduce the
learning cost while maintaining state-of-the-art performances.
- Abstract(参考訳): 最近の音声言語理解の進歩は、大きな音声コーパスで訓練された自己教師付きモデルから恩恵を受けた。
フランス語では、lebenchmarkプロジェクトはそのようなモデルを利用可能にし、音声言語理解を含むいくつかのタスクで印象的な進歩をもたらした。
これらの進歩は計算時間とエネルギー消費の点で無視できないコストを持つ。
本稿では,競争性能を維持しつつコスト削減を目的とした学習戦略をいくつか比較する。
実験はMEDIAコーパス上で行われ、最先端の性能を維持しながら学習コストを削減可能であることを示す。
関連論文リスト
- InstructionCP: A fast approach to transfer Large Language Models into target language [55.2480439325792]
InsCPは命令タグをCPプロセスに統合し、新しい言語を習得する際の会話能力の喪失を防ぐ。
実験の結果,InsCPは人間のフィードバック能力から会話と強化学習を維持していることがわかった。
このアプローチでは、高品質な命令追従データを0.1億トークンしか必要とせず、それによってリソース消費が減少する。
論文 参考訳(メタデータ) (2024-05-30T15:45:13Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z) - Accelerating Vision-Language Pretraining with Free Language Modeling [62.30042851111692]
自由言語モデリング(FLM)は、任意の汚職率で100%予測レートを実現する。
FLMは、汚職率との整合性から予測率を解放する。
実験の結果、FLMは2.5倍の事前訓練時間短縮を達成できた。
論文 参考訳(メタデータ) (2023-03-24T14:49:22Z) - Toward Low-Cost End-to-End Spoken Language Understanding [3.265773263570237]
自己監督型モデルは、音声言語理解において顕著な進歩をもたらした。
これらの進歩は、計算時間とエネルギー消費の点で無視できないコストを持つ。
競争性能を維持しながら、このようなコストを削減しようとするいくつかの学習戦略を比較します。
論文 参考訳(メタデータ) (2022-07-01T11:40:53Z) - On the Economics of Multilingual Few-shot Learning: Modeling the
Cost-Performance Trade-offs of Machine Translated and Manual Data [12.638781962950805]
本稿では,機械翻訳データと手作業で作成したラベル付きデータのパフォーマンスとコストのトレードオフを評価するためのフレームワークを提案する。
本稿では,TyDIQA-GoldPデータセットのケーススタディによるフレームワークの有効性について述べる。
論文 参考訳(メタデータ) (2022-05-12T20:27:01Z) - IGLUE: A Benchmark for Transfer Learning across Modalities, Tasks, and
Languages [87.5457337866383]
画像認識言語理解評価ベンチマークについて紹介する。
IGLUEは、視覚的質問応答、クロスモーダル検索、グラウンドド推論、20言語にわたるグラウンドドエンターテイメントタスクをまとめて提供する。
翻訳-テストの転送はゼロショットの転送よりも優れており、少数ショットの学習は多くのタスクに役立てることが難しい。
論文 参考訳(メタデータ) (2022-01-27T18:53:22Z) - Towards Lifelong Learning of Multilingual Text-To-Speech Synthesis [87.75833205560406]
本研究は,多言語テキスト音声(TTS)システムを学習するための生涯学習手法を提案する。
すべての言語からプールされたデータを必要としないため、ストレージと計算の負担が軽減される。
論文 参考訳(メタデータ) (2021-10-09T07:00:38Z) - Event Guided Denoising for Multilingual Relation Learning [2.4192504570921627]
ラベルなしテキストから関係抽出のための高品質なトレーニングデータを収集する手法を提案する。
提案手法は,日誌に記載されたニュース記事の予測可能な分布構造を利用して,認知コーパスを構築する。
このコーパスで訓練されたより小さな多言語エンコーダが、現在の最先端技術と同等に動作することを示す。
論文 参考訳(メタデータ) (2020-12-04T17:11:04Z) - Self-Paced Learning for Neural Machine Translation [55.41314278859938]
ニューラルネットワーク翻訳(NMT)訓練のためのセルフペースト学習を提案する。
提案モデルでは,強いベースラインよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-10-09T11:33:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。