論文の概要: Creating a Universal Dependencies Treebank of Spoken Frisian-Dutch
Code-switched Data
- arxiv url: http://arxiv.org/abs/2102.11152v1
- Date: Mon, 22 Feb 2021 16:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 05:21:47.496107
- Title: Creating a Universal Dependencies Treebank of Spoken Frisian-Dutch
Code-switched Data
- Title(参考訳): Spoken Frisian-Dutchコード切替データのユニバーサル依存性ツリーバンクの作成
- Authors: Anouck Braggaar, Rob van der Goot
- Abstract要約: FAMEのデータを活用しています!
コーパスは、書き起こしと音声データで構成される。
出発点として、2人の注釈者が50発話の3段階で150個の無作為発話を注釈した。
第1ラウンドと第3ラウンドの間に7.8 UASと10.5 LASポイントの増加を達成した。
- 参考スコア(独自算出の注目度): 9.454830506882027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the difficulties of annotating transcribed spoken
Dutch-Frisian code-switch utterances into Universal Dependencies. We make use
of data from the FAME! corpus, which consists of transcriptions and audio data.
Besides the usual annotation difficulties, this dataset is extra challenging
because of Frisian being low-resource, the informal nature of the data,
code-switching and non-standard sentence segmentation. As a starting point, two
annotators annotated 150 random utterances in three stages of 50 utterances.
After each stage, disagreements where discussed and resolved. An increase of
7.8 UAS and 10.5 LAS points was achieved between the first and third round.
This paper will focus on the issues that arise when annotating a transcribed
speech corpus. To resolve these issues several solutions are proposed.
- Abstract(参考訳): 本論文では,オランダ語とフリジアン語のコードスイッチ発話に注釈を付けることの難しさについて考察する。
FAMEのデータを活用しています!
コーパスは、書き起こしと音声データで構成される。
通常のアノテーションの難しさに加えて、このデータセットは、低リソースであること、データの非公式な性質、コード切り換え、非標準文のセグメンテーションのため、さらに難しい。
出発点として、2人の注釈者が50発話の3段階で150個の無作為発話を注釈した。
各段階の後、議論し、解決する意見の相違。
第1ラウンドと第3ラウンドの間に7.8 UASと10.5 LASポイントの増加を達成した。
本稿では,書き起こされた音声コーパスに注釈をつける際に生じる問題に焦点をあてる。
これらの問題を解決するためにいくつかの解決策が提案されている。
関連論文リスト
- Adversarial Training For Low-Resource Disfluency Correction [50.51901599433536]
ディフルエンシ補正(DC)のための逆学習型シーケンスタグ付けモデルを提案する。
提案手法の利点は,3つのインド語でDCに対して評価することで,合成された非流動データに大きく依存することを示す。
また,本手法は,音声障害によって導入されたASR文字の破面的不一致の除去にも有効である。
論文 参考訳(メタデータ) (2023-06-10T08:58:53Z) - Improving End-to-end Speech Translation by Leveraging Auxiliary Speech
and Text Data [38.816953592085156]
本稿では,事前学習したエンドツーエンド音声翻訳システムにテキストエンコーダを導入する方法を提案する。
これは、あるモダリティ(すなわち、ソース言語音声)を他の(すなわち、ソース言語テキスト)に適応する能力を高める。
論文 参考訳(メタデータ) (2022-12-04T09:27:56Z) - ASDOT: Any-Shot Data-to-Text Generation with Pretrained Language Models [82.63962107729994]
Any-Shot Data-to-Text (ASDOT)は、多様な設定に柔軟に適用可能な新しいアプローチである。
データ曖昧化と文の融合という2つのステップから構成される。
実験の結果, ASDOT はベースラインよりも顕著な改善が得られた。
論文 参考訳(メタデータ) (2022-10-09T19:17:43Z) - Combating high variance in Data-Scarce Implicit Hate Speech
Classification [0.0]
我々は,最先端の性能を実現する新しいRoBERTaモデルを開発した。
本稿では,様々な最適化手法と正規化手法を探求し,最先端性能を実現するRoBERTaベースの新しいモデルを開発する。
論文 参考訳(メタデータ) (2022-08-29T13:45:21Z) - Data Expansion using Back Translation and Paraphrasing for Hate Speech
Detection [1.192436948211501]
本稿では,バック翻訳手法を融合した新しい深層学習手法と,データ拡張のためのパラフレージング手法を提案する。
AskFm corpus, Formspring データセット, Warner と Waseem データセット, Olid および Wikipedia の有毒なコメントデータセットである。
論文 参考訳(メタデータ) (2021-05-25T09:52:42Z) - The Influence of Domain-Based Preprocessing on Subject-Specific
Clustering [55.41644538483948]
大学におけるオンライン教育の大部分を突然移行させることで、学者の作業負荷が増大した。
この問題に対処するひとつの方法は、トピックに応じてこれらの質問をクラスタ化することです。
本稿では,タグ付けデータセットの領域を探求し,コードの抜粋の同定と経験的結果の提供に焦点をあてる。
論文 参考訳(メタデータ) (2020-11-16T17:47:19Z) - Integrating end-to-end neural and clustering-based diarization: Getting
the best of both worlds [71.36164750147827]
クラスタリングに基づくアプローチでは、xベクトルのような話者埋め込みをクラスタリングすることで、話者ラベルを音声領域に割り当てる。
EEND(End-to-end Neural Diarization)は、ニューラルネットワークを使用してダイアリゼーションラベルを直接予測する。
重なり合う音声と、任意の数の話者を含む長い録音のために、単純だが効果的なハイブリッドダイアリゼーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-26T06:33:02Z) - Consecutive Decoding for Speech-to-text Translation [51.155661276936044]
COnSecutive Transcription and Translation (COSTT)は、音声からテキストへの翻訳に不可欠な手法である。
鍵となるアイデアは、ソースの書き起こしとターゲットの翻訳テキストを1つのデコーダで生成することである。
本手法は3つの主流データセットで検証する。
論文 参考訳(メタデータ) (2020-09-21T10:10:45Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - CompLex: A New Corpus for Lexical Complexity Prediction from Likert
Scale Data [13.224233182417636]
本稿では,連続語彙複雑性予測のための最初の英語データセットを提案する。
我々は5点のLikertスケールスキームを用いて、聖書、Europarl、バイオメディカルテキストの3つのソース/ドメインから、複雑な単語をテキストに注釈付けする。
論文 参考訳(メタデータ) (2020-03-16T03:54:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。