論文の概要: Incorporating External POS Tagger for Punctuation Restoration
- arxiv url: http://arxiv.org/abs/2106.06731v1
- Date: Sat, 12 Jun 2021 09:58:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:14:36.210981
- Title: Incorporating External POS Tagger for Punctuation Restoration
- Title(参考訳): 機能回復のための外部POSタグの導入
- Authors: Ning Shi, Wei Wang, Boxin Wang, Jinfeng Li, Xiangyu Liu and Zhouhan
Lin
- Abstract要約: 触覚回復は自動音声認識において重要な後処理ステップである。
Part-of-speech(POS)タグは情報タグを提供し、各入力トークンの構文的役割を示唆する。
外部POSタグを組み込んで予測ラベルを既存の言語モデルに融合し,構文情報を提供する。
- 参考スコア(独自算出の注目度): 11.573672075002007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Punctuation restoration is an important post-processing step in automatic
speech recognition. Among other kinds of external information, part-of-speech
(POS) taggers provide informative tags, suggesting each input token's syntactic
role, which has been shown to be beneficial for the punctuation restoration
task. In this work, we incorporate an external POS tagger and fuse its
predicted labels into the existing language model to provide syntactic
information. Besides, we propose sequence boundary sampling (SBS) to learn
punctuation positions more efficiently as a sequence tagging task. Experimental
results show that our methods can consistently obtain performance gains and
achieve a new state-of-the-art on the common IWSLT benchmark. Further ablation
studies illustrate that both large pre-trained language models and the external
POS tagger take essential parts to improve the model's performance.
- Abstract(参考訳): 触覚回復は自動音声認識において重要な後処理ステップである。
他の種類の外部情報のうち、part-of-speech (pos) タグガーは情報タグを提供し、各入力トークンの構文的役割を示唆する。
本研究では,外部のposタグを組み込み,その予測ラベルを既存の言語モデルに融合して構文情報を提供する。
さらに、シーケンスタギングタスクとしてより効率的に句読点を学習するためのシーケンス境界サンプリング(SBS)を提案する。
実験の結果,本手法は一貫して性能向上を達成でき,共通iwsltベンチマークで新たな最先端を実現することができた。
さらなるアブレーション研究は、大きな事前訓練された言語モデルと外部POSタグの両方が、モデルの性能を改善するために不可欠な部分を持っていることを示している。
関連論文リスト
- A Tale of Two Languages: Large-Vocabulary Continuous Sign Language Recognition from Spoken Language Supervision [74.972172804514]
我々は,署名された言語と音声のテキスト間の共同埋め込み空間において,署名シーケンスと出力を抽出できるマルチタスクトランスフォーマーモデルCSLR2を導入する。
新しいデータセットアノテーションは、6時間のテストビデオに対して、連続的なサインレベルアノテーションを提供する。
私たちのモデルは、両方のタスクにおいて、過去の技術状況よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-05-16T17:19:06Z) - Slot Induction via Pre-trained Language Model Probing and Multi-level
Contrastive Learning [62.839109775887025]
トークンレベルのスロットアノテーションの明示的な知識なしでスロット境界を誘導することを目的としたスロットインジェクション(SI)タスク。
PLMから抽出した教師なし意味知識を活用するために、教師なし事前学習言語モデル(PLM)探索とコントラスト学習機構を活用することを提案する。
提案手法は,2つのNLUベンチマークデータセット上でトークンレベルの教師付きモデルとのギャップを埋めることができ,SIタスクに有効であることが示されている。
論文 参考訳(メタデータ) (2023-08-09T05:08:57Z) - Prefer to Classify: Improving Text Classifiers via Auxiliary Preference
Learning [76.43827771613127]
本稿では、このような補助データアノテーションの新しい代替手段として、入力テキストのペア間のタスク固有の嗜好について検討する。
本稿では、与えられた分類課題と補助的選好の両方を学ぶことの協調効果を享受できる、P2Cと呼ばれる新しいマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T04:04:47Z) - Improving BERT with Syntax-aware Local Attention [14.70545694771721]
そこで本研究では,構文構造における距離を対象とする局所的注意度(局所注意度)を提案する。
文分類やシーケンスラベリングタスクなど,シングルセンテンスベンチマークの各種実験を行った。
我々のモデルは、構文的に関連のある単語により注意を払って、より良いパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-12-30T13:29:58Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - An Effective Contextual Language Modeling Framework for Speech
Summarization with Augmented Features [13.97006782398121]
変換器による双方向表現(BERT)モデルが提案され,多くの自然言語処理タスクにおいて記録破りの成功を収めた。
本研究では,不完全な自動音声認識によるネガティブな影響を軽減するために,信頼度スコアを文表現に組み込むことを検討した。
提案手法の有効性をベンチマークデータセットで検証する。
論文 参考訳(メタデータ) (2020-06-01T18:27:48Z) - BURT: BERT-inspired Universal Representation from Twin Structure [89.82415322763475]
BURT (BERT inspired Universal Representation from Twin Structure) は任意の粒度の入力シーケンスに対して普遍的で固定サイズの表現を生成することができる。
提案するBURTは,Siameseネットワークを採用し,自然言語推論データセットから文レベル表現を学習し,パラフレーズ化データセットから単語/フレーズレベル表現を学習する。
我々は,STSタスク,SemEval2013 Task 5(a) など,テキスト類似性タスクの粒度によってBURTを評価する。
論文 参考訳(メタデータ) (2020-04-29T04:01:52Z) - Adversarial Transfer Learning for Punctuation Restoration [58.2201356693101]
句読点予測のためのタスク不変知識を学習するために,逆多タスク学習を導入する。
IWSLT2011データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2020-04-01T06:19:56Z) - Machine Learning Approaches for Amharic Parts-of-speech Tagging [0.0]
アムハラ語における現在のPOSタグのパフォーマンスは、英語や他のヨーロッパの言語で利用可能な現代のPOSタグほど良くない。
この作業の目的は、91%を超えなかったAmharic言語のPOSタグ性能を改善することである。
論文 参考訳(メタデータ) (2020-01-10T06:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。