論文の概要: Learning Disentangled Intent Representations for Zero-shot Intent
Detection
- arxiv url: http://arxiv.org/abs/2012.01721v1
- Date: Thu, 3 Dec 2020 06:41:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-24 02:11:18.000756
- Title: Learning Disentangled Intent Representations for Zero-shot Intent
Detection
- Title(参考訳): ゼロショットインテント検出のための学習不連続インテント表現
- Authors: Qingyi Si, Yuanxin Liu, Peng Fu, Jiangnan Li, Zheng Lin and Weiping
Wang
- Abstract要約: DIR(Disentangled Representations)を学習するために、見知らぬクラスラベルを利用するクラス変換フレームワークを提案する。
本枠組みでは,意図の区別をモデルが学習することを奨励するマルチタスク学習の目標を提案する。
2つの実世界のデータセットの実験は、提案されたフレームワークがベースラインシステムに一貫した改善をもたらすことを示している。
- 参考スコア(独自算出の注目度): 13.19024497857648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Zero-shot intent detection (ZSID) aims to deal with the continuously emerging
intents without annotated training data. However, existing ZSID systems suffer
from two limitations: 1) They are not good at modeling the relationship between
seen and unseen intents, when the label names are given in the form of raw
phrases or sentences. 2) They cannot effectively recognize unseen intents under
the generalized intent detection (GZSID) setting. A critical factor behind
these limitations is the representations of unseen intents, which cannot be
learned in the training stage. To address this problem, we propose a
class-transductive framework that utilizes unseen class labels to learn
Disentangled Intent Representations (DIR). Specifically, we allow the model to
predict unseen intents in the training stage, with the corresponding label
names serving as input utterances. Under this framework, we introduce a
multi-task learning objective, which encourages the model to learn the
distinctions among intents, and a similarity scorer, which estimates the
connections among intents more accurately based on the learned intent
representations. Since the purpose of DIR is to provide better intent
representations, it can be easily integrated with existing ZSID and GZSID
methods. Experiments on two real-world datasets show that the proposed
framework brings consistent improvement to the baseline systems, regardless of
the model architectures or zero-shot learning strategies.
- Abstract(参考訳): ゼロショットインテント検出(ZSID)は、注釈付きトレーニングデータなしで継続的に現れるインテントに対処することを目的としている。
しかし、既存のZSIDシステムには2つの制限がある: 1) ラベル名が生のフレーズや文の形で与えられる場合、目に見える意図と見えない意図の関係をモデル化するのが得意ではない。
2)一般化意図検出(GZSID)設定下では,見当たらない意図を効果的に認識することはできない。
これらの制限の背後にある重要な要因は、訓練段階では学べない、目に見えない意図の表現である。
この問題に対処するために,未確認のクラスラベルを用いてDIR(Disentangled Intent Representations)を学習するクラストランスダクティブフレームワークを提案する。
具体的には, 入力発話として対応するラベル名を用いて, 学習段階における無意識意図の予測を可能にする。
本枠組みでは,意図の区別をモデルが学習することを奨励するマルチタスク学習目標と,学習意図の表現に基づいて意図間の関係をより正確に推定する類似度スコアラを導入する。
DIRの目的は、より良い意図表現を提供することであり、既存のZSIDおよびGZSIDメソッドと容易に統合できる。
2つの実世界のデータセットの実験では、モデルアーキテクチャやゼロショット学習戦略に関わらず、提案されたフレームワークがベースラインシステムに一貫した改善をもたらすことが示されている。
関連論文リスト
- Pseudo-Label Enhanced Prototypical Contrastive Learning for Uniformed Intent Discovery [27.18799732585361]
Pseudo-Label enhanced Prototypeal Contrastive Learning (PLPCL) モデルを提案する。
擬似ラベルを用いて、表現とクラスタリングのギャップを埋めるコントラスト学習のための潜在的正・負のサンプルを探索する。
提案手法は,新たな意図を発見するための2つの異なる設定において有効であることが証明されている。
論文 参考訳(メタデータ) (2024-10-26T16:22:45Z) - Label Aware Speech Representation Learning For Language Identification [49.197215416945596]
本稿では,自己指導型表現学習と事前学習タスクのための言語ラベル情報を組み合わせた新しいフレームワークを提案する。
このフレームワークは、ラベル認識音声表現(LASR)学習と呼ばれ、三重項に基づく目的関数を使用して、言語ラベルと自己教師付き損失関数を組み込む。
論文 参考訳(メタデータ) (2023-06-07T12:14:16Z) - Zero-Shot Learning for Joint Intent and Slot Labeling [11.82805641934772]
共同ゼロショットインテント分類とスロットラベリングを有益に行うことができることを示す。
本稿では,単語と文の埋め込み空間を翻訳するNNアーキテクチャについて述べる。
論文 参考訳(メタデータ) (2022-11-29T01:58:25Z) - New Intent Discovery with Pre-training and Contrastive Learning [21.25371293641141]
新しい意図発見は、ユーザ発話から新しい意図カテゴリーを明らかにして、サポート対象クラスのセットを拡張することを目的としている。
既存のアプローチは通常、大量のラベル付き発話に依存する。
本稿では,クラスタリングのためのラベルなしデータにおける自己超越的信号を活用するために,新たなコントラスト損失を提案する。
論文 参考訳(メタデータ) (2022-05-25T17:07:25Z) - Cross-modal Representation Learning for Zero-shot Action Recognition [67.57406812235767]
我々は、ゼロショット動作認識(ZSAR)のためのビデオデータとテキストラベルを共同で符号化するクロスモーダルトランスフォーマーベースのフレームワークを提案する。
我々のモデルは概念的に新しいパイプラインを使用し、視覚的表現と視覚的意味的関連をエンドツーエンドで学習する。
実験結果から,本モデルはZSARの芸術的状況に大きく改善され,UCF101,HMDB51,ActivityNetベンチマークデータセット上でトップ1の精度が向上した。
論文 参考訳(メタデータ) (2022-05-03T17:39:27Z) - Intent Contrastive Learning for Sequential Recommendation [86.54439927038968]
ユーザの意図を表現するために潜伏変数を導入し,クラスタリングにより潜伏変数の分布関数を学習する。
我々は,学習意図を対照的なSSLによってSRモデルに活用し,シーケンスのビューとそれに対応するインテントとの一致を最大化することを提案する。
4つの実世界のデータセットで実施された実験は、提案した学習パラダイムの優位性を示している。
論文 参考訳(メタデータ) (2022-02-05T09:24:13Z) - An Explicit-Joint and Supervised-Contrastive Learning Framework for
Few-Shot Intent Classification and Slot Filling [12.85364483952161]
Intent Classification (IC) と slot fill (SF) はタスク指向対話システムにおいて重要なビルディングブロックである。
クラスごとのトレーニングサンプルの数が非常に少ない場合、IC/SFモデルはほとんど機能しない。
そこで本稿では,数ショットの意図分類とスロットフィリングのための,明示的かつ教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-26T13:28:28Z) - Semantics-Guided Contrastive Network for Zero-Shot Object detection [67.61512036994458]
ゼロショット物体検出(ZSD)はコンピュータビジョンにおける新しい課題である。
ゼロショット検出の領域にコントラスト学習機構をもたらすフレームワークであるContrastZSDを開発した。
本手法は,ZSDタスクと一般化ZSDタスクの両方において,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2021-09-04T03:32:15Z) - Generalized Zero-shot Intent Detection via Commonsense Knowledge [5.398580049917152]
学習データ不足の問題を克服するために,教師なしの方法でコモンセンス知識を活用する意図検出モデル RIDE を提案する。
RIDEは、発話と意図ラベルの間の深い意味的関係をキャプチャする、堅牢で一般化可能な関係メタ機能を計算する。
広範に使用されている3つのインテント検出ベンチマークに関する広範囲な実験的分析により、関係メタ機能により、目に見えないインテントと見えないインテントの両方を検出する精度が著しく向上することが示された。
論文 参考訳(メタデータ) (2021-02-04T23:36:41Z) - Discriminative Nearest Neighbor Few-Shot Intent Detection by
Transferring Natural Language Inference [150.07326223077405]
データ不足を緩和するためには、ほとんどショットラーニングが注目を集めている。
深部自己注意を伴う識別的近傍分類を提示する。
自然言語推論モデル(NLI)を変換することで識別能力を高めることを提案する。
論文 参考訳(メタデータ) (2020-10-25T00:39:32Z) - Efficient Intent Detection with Dual Sentence Encoders [53.16532285820849]
本稿では,USE や ConveRT などの事前訓練された二重文エンコーダによるインテント検出手法を提案する。
提案するインテント検出器の有用性と適用性を示し,完全なBERT-Largeモデルに基づくインテント検出器よりも優れた性能を示す。
コードだけでなく、新しい挑戦的な単一ドメイン意図検出データセットもリリースしています。
論文 参考訳(メタデータ) (2020-03-10T15:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。