論文の概要: Low Resource Pipeline for Spoken Language Understanding via Weak
Supervision
- arxiv url: http://arxiv.org/abs/2206.10559v1
- Date: Tue, 21 Jun 2022 17:36:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 17:28:42.448880
- Title: Low Resource Pipeline for Spoken Language Understanding via Weak
Supervision
- Title(参考訳): 弱い監督による音声言語理解のための低資源パイプライン
- Authors: Ayush Kumar, Rishabh Kumar Tripathi, Jithendra Vepa
- Abstract要約: Weak Supervised Learning (WSL)では、セマンティックルールとタスク固有の事前学習モデルから得られたノイズの多いラベルに基づいてモデルを訓練する。
タスク非依存のプロンプトは一般化可能であり,様々な音声言語理解(SLU)タスクのノイズラベルを得るのに利用できることを示す。
そこで我々は,SLUタスクの信頼ラベルを生成するプロンプトベースの手法を,ラベル付きデータがない場合に,弱教師付きモデル(WSM)を訓練するための普遍的な弱い情報源として利用することができることを示した。
- 参考スコア(独自算出の注目度): 5.9901156966011975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In Weak Supervised Learning (WSL), a model is trained over noisy labels
obtained from semantic rules and task-specific pre-trained models. Rules offer
limited generalization over tasks and require significant manual efforts while
pre-trained models are available only for limited tasks. In this work, we
propose to utilize prompt-based methods as weak sources to obtain the noisy
labels on unannotated data. We show that task-agnostic prompts are
generalizable and can be used to obtain noisy labels for different Spoken
Language Understanding (SLU) tasks such as sentiment classification, disfluency
detection and emotion classification. These prompts could additionally be
updated to add task-specific contexts, thus providing flexibility to design
task-specific prompts. We demonstrate that prompt-based methods generate
reliable labels for the above SLU tasks and thus can be used as a universal
weak source to train a weak-supervised model (WSM) in absence of labeled data.
Our proposed WSL pipeline trained over prompt-based weak source outperforms
other competitive low-resource benchmarks on zero and few-shot learning by more
than 4% on Macro-F1 on all of the three benchmark SLU datasets. The proposed
method also outperforms a conventional rule based WSL pipeline by more than 5%
on Macro-F1.
- Abstract(参考訳): Weak Supervised Learning (WSL)では、セマンティックルールとタスク固有の事前学習モデルから得られたノイズの多いラベルに基づいてモデルを訓練する。
ルールはタスクに対する限定的な一般化を提供するが、事前訓練されたモデルは限られたタスクでのみ利用可能である。
そこで本研究では,提案手法を弱源として,無注データから雑音ラベルを得る手法を提案する。
本研究では,タスク非依存のプロンプトが一般化可能であり,感情分類や不規則検出,感情分類など,さまざまな音声言語理解(SLU)タスクのノイズラベルを得るために使用できることを示す。
これらのプロンプトはタスク固有のコンテキストを追加するために更新され、タスク固有のプロンプトを設計する柔軟性を提供する。
そこで我々は,SLUタスクの信頼ラベルを生成するプロンプトベースの手法を,ラベル付きデータがない場合に,弱教師付きモデル(WSM)を訓練するための普遍的な弱い情報源として利用することができることを示した。
提案したWSLパイプラインは,3つのベンチマークSLUデータセットすべてにおいて,ゼロおよび少数ショットの学習において,プロンプトベースの弱いソースをトレーニングし,他の競合する低リソースベンチマークを4%以上上回りました。
提案手法は,従来の規則に基づくWSLパイプラインをマクロF1上で5%以上上回る性能を示した。
関連論文リスト
- Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Self-regulating Prompts: Foundational Model Adaptation without
Forgetting [112.66832145320434]
本稿では,PromptSRCと呼ばれる自己正規化フレームワークを提案する。
PromptSRCはタスク固有の汎用表現とタスクに依存しない汎用表現の両方に最適化するプロンプトを導く。
論文 参考訳(メタデータ) (2023-07-13T17:59:35Z) - Automated Few-shot Classification with Instruction-Finetuned Language
Models [76.69064714392165]
我々は、AuT-Fewが最先端の数ショット学習方法より優れていることを示す。
AuT-Few は RAFT few-shot ベンチマークにおいて,データセット間で最高のランク付け手法であることを示す。
論文 参考訳(メタデータ) (2023-05-21T21:50:27Z) - Task Residual for Tuning Vision-Language Models [69.22958802711017]
タスク残差調整(TaskRes)と呼ばれる視覚言語モデル(VLM)のための新しい効率的なチューニング手法を提案する。
TaskResは、トレーニング済みモデルの事前知識とターゲットタスクに関する新たな知識を明示的に分離する。
提案されたTaskResは単純だが有効であり、11のベンチマークデータセットで以前のメソッドよりも大幅に上回っている。
論文 参考訳(メタデータ) (2022-11-18T15:09:03Z) - Meta Auxiliary Learning for Low-resource Spoken Language Understanding [11.002938634213734]
音声言語理解(SLU)は、音声認識(ASR)と自然言語理解(NLU)を統一的なタスクとして扱う。
低リソースSLUタスクの性能向上のために,メタ補助学習に基づくASRとNLUのジョイントトレーニング手法を利用する。
論文 参考訳(メタデータ) (2022-06-26T03:12:33Z) - PromptDA: Label-guided Data Augmentation for Prompt-based Few-shot
Learners [15.130992223266734]
本稿では,データ拡張のためのラベルの豊富なセマンティック情報を利用する新しいラベル誘導型データ拡張フレームワークであるPromptDAを提案する。
本研究は, 提案フレームワークの優れた性能を示すために, テキスト分類タスクを数ショットで行う実験である。
論文 参考訳(メタデータ) (2022-05-18T22:15:20Z) - AdaPrompt: Adaptive Model Training for Prompt-based NLP [77.12071707955889]
PLMの継続事前学習のための外部データを適応的に検索するAdaPromptを提案する。
5つのNLPベンチマークの実験結果から、AdaPromptは数ショット設定で標準PLMよりも改善可能であることが示された。
ゼロショット設定では、標準のプロンプトベースの手法を26.35%の相対誤差削減で上回ります。
論文 参考訳(メタデータ) (2022-02-10T04:04:57Z) - The Role of Global Labels in Few-Shot Classification and How to Infer
Them [55.64429518100676]
メタ学習では、ほとんどショット学習が中心的な問題であり、学習者は新しいタスクに迅速に適応しなければならない。
本稿では,メタラベル学習(MeLa)を提案する。メタラベル学習(MeLa)は,グローバルラベルを推論し,標準分類によるロバストな少数ショットモデルを得る新しいアルゴリズムである。
論文 参考訳(メタデータ) (2021-08-09T14:07:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。