論文の概要: Continuous representations of intents for dialogue systems
- arxiv url: http://arxiv.org/abs/2105.03716v1
- Date: Sat, 8 May 2021 15:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:40:47.470273
- Title: Continuous representations of intents for dialogue systems
- Title(参考訳): 対話システムにおける意図の連続表現
- Authors: Sindre Andr\'e Jacobsen and Anton Ragni
- Abstract要約: 最近まで、焦点は固定された、離散的な多くの意図を検出することであった。
近年,ゼロショット学習の文脈において,無意識の意図検出に関するいくつかの研究が行われている。
本稿では,専門家のIntent Spaceに意図を連続的に配置する新しいモデルを提案する。
- 参考スコア(独自算出の注目度): 10.031004070657122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intent modelling has become an important part of modern dialogue systems.
With the rapid expansion of practical dialogue systems and virtual assistants,
such as Amazon Alexa, Apple Siri, and Google Assistant, the interest has only
increased. However, up until recently the focus has been on detecting a fixed,
discrete, number of seen intents. Recent years have seen some work done on
unseen intent detection in the context of zero-shot learning. This paper
continues the prior work by proposing a novel model where intents are
continuous points placed in a specialist Intent Space that yields several
advantages. First, the continuous representation enables to investigate
relationships between the seen intents. Second, it allows any unseen intent to
be reliably represented given limited quantities of data. Finally, this paper
will show how the proposed model can be augmented with unseen intents without
retraining any of the seen ones. Experiments show that the model can reliably
add unseen intents with a high accuracy while retaining a high performance on
the seen intents.
- Abstract(参考訳): 意図モデリングは現代の対話システムにおいて重要な部分となっている。
Amazon Alexa、Apple Siri、Google Assistantなどの実用的な対話システムやバーチャルアシスタントの急速な拡張により、興味は増している。
しかし、最近まで、焦点は固定された離散的な多くの意図を検出することであった。
近年,ゼロショット学習の文脈において,無意識の意図検出に関するいくつかの研究が行われている。
本稿では,いくつかの利点をもたらす専門的な意図空間に意図を連続的に配置する新しいモデルを提案することにより,先行研究を継続する。
まず、連続表現は、見た意図間の関係を調査できる。
第二に、限られた量のデータに対して、目に見えない意図を確実に表現することができる。
最後に,提案したモデルが,どのモデルも再学習することなく,目に見えない意図で拡張可能であることを示す。
実験により、モデルが目に見えないインテントを高い精度で確実に追加し、そのインテントに対して高いパフォーマンスを維持することができることが示された。
関連論文リスト
- IntentGPT: Few-shot Intent Discovery with Large Language Models [9.245106106117317]
我々は、新たな意図が現れると識別できるモデルを開発する。
IntentGPTは、Large Language Models (LLM) を効果的に促し、最小限のラベル付きデータで新しいインテントを発見する、トレーニング不要の手法である。
実験の結果,IntentGPTはドメイン固有データと微調整を必要とする従来の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-11-16T02:16:59Z) - Discovering New Intents Using Latent Variables [51.50374666602328]
本稿では,意図の割り当てを潜伏変数として扱う意図を発見するための確率的フレームワークを提案する。
E-step, we conducting intents and explore the intrinsic structure of unlabeled data by the rear of intent assignments。
M段階において、ラベル付きデータの識別を最適化することにより、既知の意図から伝達される事前知識の忘れを緩和する。
論文 参考訳(メタデータ) (2022-10-21T08:29:45Z) - Zero-Shot Prompting for Implicit Intent Prediction and Recommendation
with Commonsense Reasoning [28.441725610692714]
本稿では,ユーザ発話に基づいて暗黙の意図を自動推論する多ドメイン対話システムを提案する。
提案フレームワークは暗黙の意図の実現に有効であり,0ショット方式でボットを推奨する。
論文 参考訳(メタデータ) (2022-10-12T03:33:49Z) - Template-based Approach to Zero-shot Intent Recognition [7.330908962006392]
本稿では、意図認識のための一般化されたゼロショット設定について検討する。
ゼロショットテキスト分類のベストプラクティスに従い、文ペアモデリングアプローチを用いてタスクを扱います。
未確認の意図に対して,従来のf1尺度を最大16%上回りました。
論文 参考訳(メタデータ) (2022-06-22T08:44:59Z) - A Framework to Generate High-Quality Datapoints for Multiple Novel
Intent Detection [24.14668837496296]
MNIDは、予算的な人的アノテーションコストで複数の新しい意図を検出するためのフレームワークである。
精度とF1スコアの点でベースライン法より優れている。
論文 参考訳(メタデータ) (2022-05-04T11:32:15Z) - Generalized Zero-shot Intent Detection via Commonsense Knowledge [5.398580049917152]
学習データ不足の問題を克服するために,教師なしの方法でコモンセンス知識を活用する意図検出モデル RIDE を提案する。
RIDEは、発話と意図ラベルの間の深い意味的関係をキャプチャする、堅牢で一般化可能な関係メタ機能を計算する。
広範に使用されている3つのインテント検出ベンチマークに関する広範囲な実験的分析により、関係メタ機能により、目に見えないインテントと見えないインテントの両方を検出する精度が著しく向上することが示された。
論文 参考訳(メタデータ) (2021-02-04T23:36:41Z) - Discriminative Nearest Neighbor Few-Shot Intent Detection by
Transferring Natural Language Inference [150.07326223077405]
データ不足を緩和するためには、ほとんどショットラーニングが注目を集めている。
深部自己注意を伴う識別的近傍分類を提示する。
自然言語推論モデル(NLI)を変換することで識別能力を高めることを提案する。
論文 参考訳(メタデータ) (2020-10-25T00:39:32Z) - Learning Long-term Visual Dynamics with Region Proposal Interaction
Networks [75.06423516419862]
オブジェクト間およびオブジェクト環境間の相互作用を長距離にわたってキャプチャするオブジェクト表現を構築します。
単純だが効果的なオブジェクト表現のおかげで、我々の手法は先行手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2020-08-05T17:48:00Z) - Learning with Weak Supervision for Email Intent Detection [56.71599262462638]
本稿では,メールの意図を検出するために,ユーザアクションを弱い監視源として活用することを提案する。
メール意図識別のためのエンドツーエンドの堅牢なディープニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-05-26T23:41:05Z) - AGIF: An Adaptive Graph-Interactive Framework for Joint Multiple Intent
Detection and Slot Filling [69.59096090788125]
本稿では,多目的検出とスロットフィリングを併用する適応グラフ対話フレームワーク(AGIF)を提案する。
スロットとインテントの強い相関関係をモデル化するために,インテント-スロットグラフ相互作用層を導入する。
このような相互作用層が各トークンに適応的に適用され、関連する意図情報を自動抽出する利点がある。
論文 参考訳(メタデータ) (2020-04-21T15:07:34Z) - Efficient Intent Detection with Dual Sentence Encoders [53.16532285820849]
本稿では,USE や ConveRT などの事前訓練された二重文エンコーダによるインテント検出手法を提案する。
提案するインテント検出器の有用性と適用性を示し,完全なBERT-Largeモデルに基づくインテント検出器よりも優れた性能を示す。
コードだけでなく、新しい挑戦的な単一ドメイン意図検出データセットもリリースしています。
論文 参考訳(メタデータ) (2020-03-10T15:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。