論文の概要: An Effective, Performant Named Entity Recognition System for Noisy
Business Telephone Conversation Transcripts
- arxiv url: http://arxiv.org/abs/2209.13736v1
- Date: Tue, 27 Sep 2022 23:11:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 16:47:38.021318
- Title: An Effective, Performant Named Entity Recognition System for Noisy
Business Telephone Conversation Transcripts
- Title(参考訳): ノイズの多いビジネス電話対話音声認識のための実効的, 高性能なエンティティ認識システム
- Authors: Xue-Yong Fu, Cheng Chen, Md Tahmid Rahman Laskar, Shashi Bhushan TN,
Simon Corston-Oliver
- Abstract要約: 本稿では,音声を含むビジネス電話の会話書き起こしで動作する名前付きエンティティ認識モデルを訓練する手法を提案する。
まず,NERモデル(State-of-the-the-art Named Entity Recognition)モデルであるLUKEを,限られたテキストに基づいて微調整し,教師モデルとして使用して,より小さな DistilBERT ベースの学生モデルを教える。
このモデルは、商用電話製品に組み込むための実用的な制約を満たすとともに、高い精度を達成する。
- 参考スコア(独自算出の注目度): 1.9227015261434237
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a simple yet effective method to train a named entity recognition
(NER) model that operates on business telephone conversation transcripts that
contain noise due to the nature of spoken conversation and artifacts of
automatic speech recognition. We first fine-tune LUKE, a state-of-the-art Named
Entity Recognition (NER) model, on a limited amount of transcripts, then use it
as the teacher model to teach a smaller DistilBERT-based student model using a
large amount of weakly labeled data and a small amount of human-annotated data.
The model achieves high accuracy while also satisfying the practical
constraints for inclusion in a commercial telephony product: realtime
performance when deployed on cost-effective CPUs rather than GPUs.
- Abstract(参考訳): 本稿では,音声会話の性質や自動音声認識の成果物に起因した雑音を含むビジネス電話会話の書き起こしを操作する,名前付きエンティティ認識(ner)モデルを訓練する簡易かつ効果的な手法を提案する。
我々はまず,限られた量の書き起こしに基づいて最先端のエンティティ認識(ner)モデルであるlukeを微調整し,それを教師モデルとして,弱いラベル付きデータと少数の人間の注釈付きデータを用いて,より小さなディチルバートベースの学生モデルを教える。
モデルは、GPUではなくコスト効率のよいCPUにデプロイされた場合のリアルタイムパフォーマンスという、商用電話製品に含めるための現実的な制約を満たすとともに、高い精度を達成する。
関連論文リスト
- Learning Robust Named Entity Recognizers From Noisy Data With Retrieval Augmentation [67.89838237013078]
名前付きエンティティ認識(NER)モデルは、しばしばノイズの多い入力に悩まされる。
ノイズの多いテキストとそのNERラベルのみを利用できる、より現実的な設定を提案する。
我々は、推論中にテキストを取得することなく、堅牢なNERを改善するマルチビュートレーニングフレームワークを採用している。
論文 参考訳(メタデータ) (2024-07-26T07:30:41Z) - TIPAA-SSL: Text Independent Phone-to-Audio Alignment based on Self-Supervised Learning and Knowledge Transfer [3.9981390090442694]
本稿では,音素認識,表現学習,知識伝達に基づくテキスト独立型音声アライメントのための新しいアプローチを提案する。
我々は、TIMITデータセットとSCRIBEデータセットの合成ネイティブデータを用いて、アメリカ英語とイギリス英語のモデルを評価する。
提案手法は,統計的指標における最先端(シャルシウ)よりも優れ,言語学習や音声処理システムに応用されている。
論文 参考訳(メタデータ) (2024-05-03T14:25:21Z) - Pheme: Efficient and Conversational Speech Generation [52.34331755341856]
我々は,コンパクトだが高性能な会話型TSモデルを提供するPhemeモデルシリーズを紹介する。
小規模の会話データで効率的にトレーニングでき、データ要求を10倍に削減できるが、自動回帰的TSモデルの品質にマッチする。
論文 参考訳(メタデータ) (2024-01-05T14:47:20Z) - Self-Supervised Learning for speech recognition with Intermediate layer
supervision [52.93758711230248]
自己教師付き学習(ILS-SSL)のための中間層スーパービジョンを提案する。
ILS-SSLは、中間層にSSL損失を追加することで、可能な限りコンテンツ情報に集中させます。
LibriSpeech の他のテストセットの実験により,本手法は HuBERT を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-12-16T10:45:05Z) - On the Use of External Data for Spoken Named Entity Recognition [40.93448412171246]
近年の自己教師型音声表現の進歩により,ラベル付きデータに制限のある学習モデルを考えることが可能になった。
自己学習、知識蒸留、トランスファーラーニングなど、さまざまなアプローチを採用し、エンドツーエンドモデルとパイプラインアプローチの両方に適用性を検討する。
論文 参考訳(メタデータ) (2021-12-14T18:49:26Z) - Distantly-Supervised Named Entity Recognition with Noise-Robust Learning
and Language Model Augmented Self-Training [66.80558875393565]
遠距離ラベル付きデータのみを用いて、名前付きエンティティ認識(NER)モデルを訓練する際の課題について検討する。
本稿では,新しい損失関数と雑音ラベル除去ステップからなるノイズロスバスト学習手法を提案する。
提案手法は,既存の遠隔教師付きNERモデルよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2021-09-10T17:19:56Z) - A Transfer Learning Method for Speech Emotion Recognition from Automatic
Speech Recognition [0.0]
本稿では,時間遅延ニューラルネットワークアーキテクチャに基づく音声感情認識における伝達学習手法を示す。
5倍のクロスバリデーションを用いて,最先端技術と比較して高い精度を実現する。
論文 参考訳(メタデータ) (2020-08-06T20:37:22Z) - An Effective Contextual Language Modeling Framework for Speech
Summarization with Augmented Features [13.97006782398121]
変換器による双方向表現(BERT)モデルが提案され,多くの自然言語処理タスクにおいて記録破りの成功を収めた。
本研究では,不完全な自動音声認識によるネガティブな影響を軽減するために,信頼度スコアを文表現に組み込むことを検討した。
提案手法の有効性をベンチマークデータセットで検証する。
論文 参考訳(メタデータ) (2020-06-01T18:27:48Z) - Audio ALBERT: A Lite BERT for Self-supervised Learning of Audio
Representation [51.37980448183019]
本稿では,自己教師型音声表現モデルの簡易版であるAudio ALBERTを提案する。
我々は、Audio ALBERTが、下流タスクにおいて、これらの巨大なモデルと競合する性能を達成することができることを示す。
探索実験において、潜在表現は、最後の層よりも音素と話者のリッチな情報をエンコードすることがわかった。
論文 参考訳(メタデータ) (2020-05-18T10:42:44Z) - SOLOIST: Building Task Bots at Scale with Transfer Learning and Machine
Teaching [81.45928589522032]
トランスフォーマーに基づく自動回帰言語モデルを用いて,モジュール型タスク指向対話システムをパラメータ化する。
タスクグラウンド応答生成モデルである異種ダイアログコーパスの事前学習を行う。
実験により、SOLOISTは、よく研究されたタスク指向のダイアログベンチマーク上で、新しい最先端のダイアログを生成する。
論文 参考訳(メタデータ) (2020-05-11T17:58:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。