論文の概要: What has LeBenchmark Learnt about French Syntax?
- arxiv url: http://arxiv.org/abs/2403.02173v1
- Date: Mon, 4 Mar 2024 16:20:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 18:05:36.972839
- Title: What has LeBenchmark Learnt about French Syntax?
- Title(参考訳): LeBenchmarkはフランス語の構文について何を学んだか?
- Authors: Zdravko Dugonji\'c, Adrien Pupier, Benjamin Lecouteux, Maximin Coavoux
- Abstract要約: 本報告では, 音声音声の7k時間に事前学習した音響モデルであるLeBenchmarkを, 構文情報として探索するための一連の実験について報告する。
その結果, ネットワークの中間層から構文情報を抽出しやすくなり, その後, 極めて急激な減少が観測された。
- 参考スコア(独自算出の注目度): 8.62399763481481
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper reports on a series of experiments aiming at probing LeBenchmark, a
pretrained acoustic model trained on 7k hours of spoken French, for syntactic
information. Pretrained acoustic models are increasingly used for downstream
speech tasks such as automatic speech recognition, speech translation, spoken
language understanding or speech parsing. They are trained on very low level
information (the raw speech signal), and do not have explicit lexical
knowledge. Despite that, they obtained reasonable results on tasks that
requires higher level linguistic knowledge. As a result, an emerging question
is whether these models encode syntactic information. We probe each
representation layer of LeBenchmark for syntax, using the Orf\'eo treebank, and
observe that it has learnt some syntactic information. Our results show that
syntactic information is more easily extractable from the middle layers of the
network, after which a very sharp decrease is observed.
- Abstract(参考訳): 本報告では, 音声音声の7k時間に事前学習した音響モデルであるLeBenchmarkを構文情報として探索するための一連の実験について報告する。
事前学習された音響モデルは、自動音声認識、音声翻訳、音声言語理解、音声解析などの下流の音声タスクにますます使われている。
それらは非常に低いレベルの情報(生の音声信号)で訓練され、明確な語彙知識を持っていない。
それにもかかわらず、彼らはより高いレベルの言語知識を必要とするタスクについて合理的な結果を得た。
その結果、これらのモデルが構文情報をエンコードするかどうかが問題となる。
我々は,orf\'eo treebankを用いて,構文のためのlebenchmarkの各表現層を調べ,いくつかの構文情報を学習したことを観察する。
その結果, ネットワークの中間層から構文情報を抽出しやすくなり, その後, 極めて急激な減少が観測された。
関連論文リスト
- The Interpreter Understands Your Meaning: End-to-end Spoken Language
Understanding Aided by Speech Translation [13.352795145385645]
音声翻訳(ST)は、エンドツーエンドの音声言語理解のために、音声モデルを事前訓練する良い方法である。
我々は,本モデルが単言語および多言語意図分類に基づくベースラインよりも高い性能を達成することを示す。
また、音声要約のための新しいベンチマークデータセットを作成し、低リソース/ゼロショットを英語からフランス語またはスペイン語に転送する。
論文 参考訳(メタデータ) (2023-05-16T17:53:03Z) - Bidirectional Representations for Low Resource Spoken Language
Understanding [39.208462511430554]
双方向リッチ符号化における音声符号化のための表現モデルを提案する。
このアプローチでは、表現を学習するために、マスク付き言語モデリングの目的を使用する。
得られたエンコーディングの性能は、複数のデータセットで比較できるモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-11-24T17:05:16Z) - Self-Supervised Learning for speech recognition with Intermediate layer
supervision [52.93758711230248]
自己教師付き学習(ILS-SSL)のための中間層スーパービジョンを提案する。
ILS-SSLは、中間層にSSL損失を追加することで、可能な限りコンテンツ情報に集中させます。
LibriSpeech の他のテストセットの実験により,本手法は HuBERT を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-12-16T10:45:05Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z) - LeBenchmark: A Reproducible Framework for Assessing Self-Supervised
Representation Learning from Speech [63.84741259993937]
膨大なラベルのないデータを用いた自己教師付き学習(SSL)は、画像処理と自然言語処理に成功している。
最近の研究では、音声からSSLも調べた。
音声からSSLを評価する再現可能なフレームワークであるLeBenchmarkを提案する。
論文 参考訳(メタデータ) (2021-04-23T08:27:09Z) - Watch and Learn: Mapping Language and Noisy Real-world Videos with
Self-supervision [54.73758942064708]
我々は、明示的なアノテーションを使わずに、文章と騒々しいビデオスニペットのマッピングを学習することで、視覚と自然言語を理解するように機械に教える。
トレーニングと評価のために、多数のオンラインビデオとサブタイトルを含む新しいデータセットApartmenTourをコントリビュートする。
論文 参考訳(メタデータ) (2020-11-19T03:43:56Z) - ALICE: Active Learning with Contrastive Natural Language Explanations [69.03658685761538]
本研究では,学習におけるデータ効率を向上させるために,AlICEを用いたアクティブラーニングを提案する。
ALICEは、まずアクティブラーニングを使用して、最も情報に富んだラベルクラスを選択し、対照的な自然言語の説明を引き出す。
意味的に抽出された知識を用いて、これらの説明から知識を抽出する。
論文 参考訳(メタデータ) (2020-09-22T01:02:07Z) - Learning Spoken Language Representations with Neural Lattice Language
Modeling [39.50831917042577]
本稿では,音声言語理解タスクのための文脈表現を提供するために,ニューラルネットワーク言語モデルを訓練するフレームワークを提案する。
提案する2段階事前学習手法は,音声データの要求を低減し,効率を向上する。
論文 参考訳(メタデータ) (2020-07-06T10:38:03Z) - CSTNet: Contrastive Speech Translation Network for Self-Supervised
Speech Representation Learning [11.552745999302905]
7000の言語のうち、半数以上が絶滅の危機にさらされている。
音声に対応するテキスト翻訳は比較的容易である。
音声から言語表現を抽出できる畳み込みニューラルネットワークオーディオエンコーダを構築する。
論文 参考訳(メタデータ) (2020-06-04T12:21:48Z) - Information-Theoretic Probing for Linguistic Structure [74.04862204427944]
本稿では,相互情報を推定するための情報理論による探索運用手法を提案する。
我々は,NLP研究でしばしば不足している10の型的多様言語について評価した。
論文 参考訳(メタデータ) (2020-04-07T01:06:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。