論文の概要: All Labels Together: Low-shot Intent Detection with an Efficient Label
Semantic Encoding Paradigm
- arxiv url: http://arxiv.org/abs/2309.03563v2
- Date: Fri, 8 Sep 2023 01:00:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-11 10:55:52.299829
- Title: All Labels Together: Low-shot Intent Detection with an Efficient Label
Semantic Encoding Paradigm
- Title(参考訳): all labels together: 効率的なラベル意味符号化パラダイムによる低ショットインテント検出
- Authors: Jiangshu Du, Congying Xia, Wenpeng Yin, Tingting Liang, Philip S. Yu
- Abstract要約: インテント検出タスクでは、インテントラベルから意味のあるセマンティック情報を活用することは、いくつかのシナリオで特に有用である。
本稿では,全てのラベル候補に対する入力音声の比較が可能なエンドツーエンドのワン・ツー・オールシステムを提案する。
数発のインテント検出タスクの実験では、トレーニングリソースが極めて少ない場合、One-to-Allが特に有効であることが示されている。
- 参考スコア(独自算出の注目度): 48.02790193676742
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In intent detection tasks, leveraging meaningful semantic information from
intent labels can be particularly beneficial for few-shot scenarios. However,
existing few-shot intent detection methods either ignore the intent labels,
(e.g. treating intents as indices) or do not fully utilize this information
(e.g. only using part of the intent labels). In this work, we present an
end-to-end One-to-All system that enables the comparison of an input utterance
with all label candidates. The system can then fully utilize label semantics in
this way. Experiments on three few-shot intent detection tasks demonstrate that
One-to-All is especially effective when the training resource is extremely
scarce, achieving state-of-the-art performance in 1-, 3- and 5-shot settings.
Moreover, we present a novel pretraining strategy for our model that utilizes
indirect supervision from paraphrasing, enabling zero-shot cross-domain
generalization on intent detection tasks. Our code is at
https://github.com/jiangshdd/AllLablesTogether.
- Abstract(参考訳): 意図検出タスクでは、意図ラベルから有意義な意味情報を活用することは、わずかなシナリオで特に有用である。
しかし、既存の数発の意図検出方法はインテントラベルを無視するか(例えばインテントをインデックスとして扱うなど)、あるいはこの情報を十分に利用していない(インテントラベルの一部のみを使用するなど)。
本稿では,すべてのラベル候補と入力発話の比較が可能なエンドツーエンドの1対1システムを提案する。
するとシステムは、この方法でラベルのセマンティクスを完全に活用できる。
3つのマイナショットインテント検出タスクの実験では、トレーニングリソースが極めて少ない場合、特に1対1の効果が示され、1~3、および5ショットの設定で最先端のパフォーマンスを達成している。
さらに,パラフラージングからの間接的監督を活用し,意図検出タスクにおけるゼロショットクロスドメイン一般化を実現する,新たな事前学習戦略を提案する。
私たちのコードはhttps://github.com/jiangshdd/AllLablesTogetherにあります。
関連論文リスト
- IDAS: Intent Discovery with Abstractive Summarization [16.731183915325584]
目的発見における近年の競合手法は,抽象的な要約に基づく発話のクラスタリングによってより優れることを示す。
我々は、大規模言語モデルに促すことで、記述的発話ラベルの集合を収集するIDASアプローチに貢献する。
発話とそのノイズラベルは、凍結した事前訓練されたエンコーダによって符号化され、その後クラスタ化され、潜伏した意図を回復する。
論文 参考訳(メタデータ) (2023-05-31T12:19:40Z) - New Intent Discovery with Pre-training and Contrastive Learning [21.25371293641141]
新しい意図発見は、ユーザ発話から新しい意図カテゴリーを明らかにして、サポート対象クラスのセットを拡張することを目的としている。
既存のアプローチは通常、大量のラベル付き発話に依存する。
本稿では,クラスタリングのためのラベルなしデータにおける自己超越的信号を活用するために,新たなコントラスト損失を提案する。
論文 参考訳(メタデータ) (2022-05-25T17:07:25Z) - Learning to Detect Mobile Objects from LiDAR Scans Without Labels [60.49869345286879]
現在、自動運転のための3Dオブジェクト検出器は、ほとんど完全に人間の注釈付きデータに基づいて訓練されている。
本稿では,地球上のほぼどこでも,安価かつ多量に収集できるラベルなしデータに基づく代替手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T20:05:24Z) - Exploring the Limits of Natural Language Inference Based Setup for
Few-Shot Intent Detection [13.971616443394474]
汎用的なFewショットインテント検出は、より現実的だが難しいセットアップである。
自然言語推論に基づくシンプルで効果的な手法を用いる。
提案手法は,1ショットと5ショットのインテント検出タスクにおいて,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-12-14T14:47:23Z) - Few-Shot Intent Detection via Contrastive Pre-Training and Fine-Tuning [27.154414939086426]
コントラスト付き事前学習と微調整を併用した簡易かつ効果的に数発のインテント検出方式を提案する。
まず、収集した意図データセットに基づいて、自己教師付きコントラスト事前学習を行い、意味論的に類似した発話を識別することを暗黙的に学習する。
次に、教師付きコントラスト学習とともに、数発のインテント検出を行い、同じインテントから発声を明示的に引き出す。
論文 参考訳(メタデータ) (2021-09-13T22:28:58Z) - Discovering New Intents with Deep Aligned Clustering [19.11073686645496]
限定された既知の意図データを用いて新しい意図を発見するための効果的な方法であるDeep Aligned Clusteringを提案する。
未知の新たな意図によって、低信頼な意図的クラスタを排除し、意図的カテゴリの数を予測する。
2つのベンチマークデータセットの実験は、私たちの方法がより堅牢であり、最先端の方法よりも大幅に改善されることを示しています。
論文 参考訳(メタデータ) (2020-12-16T14:32:06Z) - Few-shot Learning for Multi-label Intent Detection [59.66787898744991]
State-of-the-art work estimates label-instancelevance scores and using threshold to select multiple associated intent labels。
2つのデータセットの実験により、提案モデルが1ショットと5ショットの両方の設定において強いベースラインを著しく上回ることが示された。
論文 参考訳(メタデータ) (2020-10-11T14:42:18Z) - Learning with Weak Supervision for Email Intent Detection [56.71599262462638]
本稿では,メールの意図を検出するために,ユーザアクションを弱い監視源として活用することを提案する。
メール意図識別のためのエンドツーエンドの堅牢なディープニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-05-26T23:41:05Z) - AGIF: An Adaptive Graph-Interactive Framework for Joint Multiple Intent
Detection and Slot Filling [69.59096090788125]
本稿では,多目的検出とスロットフィリングを併用する適応グラフ対話フレームワーク(AGIF)を提案する。
スロットとインテントの強い相関関係をモデル化するために,インテント-スロットグラフ相互作用層を導入する。
このような相互作用層が各トークンに適応的に適用され、関連する意図情報を自動抽出する利点がある。
論文 参考訳(メタデータ) (2020-04-21T15:07:34Z) - Efficient Intent Detection with Dual Sentence Encoders [53.16532285820849]
本稿では,USE や ConveRT などの事前訓練された二重文エンコーダによるインテント検出手法を提案する。
提案するインテント検出器の有用性と適用性を示し,完全なBERT-Largeモデルに基づくインテント検出器よりも優れた性能を示す。
コードだけでなく、新しい挑戦的な単一ドメイン意図検出データセットもリリースしています。
論文 参考訳(メタデータ) (2020-03-10T15:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。