論文の概要: IntentGPT: Few-shot Intent Discovery with Large Language Models
- arxiv url: http://arxiv.org/abs/2411.10670v1
- Date: Sat, 16 Nov 2024 02:16:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:34:03.003792
- Title: IntentGPT: Few-shot Intent Discovery with Large Language Models
- Title(参考訳): IntentGPT: 大規模言語モデルによるインテント発見
- Authors: Juan A. Rodriguez, Nicholas Botzer, David Vazquez, Christopher Pal, Marco Pedersoli, Issam Laradji,
- Abstract要約: 我々は、新たな意図が現れると識別できるモデルを開発する。
IntentGPTは、Large Language Models (LLM) を効果的に促し、最小限のラベル付きデータで新しいインテントを発見する、トレーニング不要の手法である。
実験の結果,IntentGPTはドメイン固有データと微調整を必要とする従来の手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 9.245106106117317
- License:
- Abstract: In today's digitally driven world, dialogue systems play a pivotal role in enhancing user interactions, from customer service to virtual assistants. In these dialogues, it is important to identify user's goals automatically to resolve their needs promptly. This has necessitated the integration of models that perform Intent Detection. However, users' intents are diverse and dynamic, making it challenging to maintain a fixed set of predefined intents. As a result, a more practical approach is to develop a model capable of identifying new intents as they emerge. We address the challenge of Intent Discovery, an area that has drawn significant attention in recent research efforts. Existing methods need to train on a substantial amount of data for correctly identifying new intents, demanding significant human effort. To overcome this, we introduce IntentGPT, a novel training-free method that effectively prompts Large Language Models (LLMs) such as GPT-4 to discover new intents with minimal labeled data. IntentGPT comprises an \textit{In-Context Prompt Generator}, which generates informative prompts for In-Context Learning, an \textit{Intent Predictor} for classifying and discovering user intents from utterances, and a \textit{Semantic Few-Shot Sampler} that selects relevant few-shot examples and a set of known intents to be injected into the prompt. Our experiments show that IntentGPT outperforms previous methods that require extensive domain-specific data and fine-tuning, in popular benchmarks, including CLINC and BANKING, among others.
- Abstract(参考訳): 今日のデジタル駆動の世界では、対話システムはカスタマーサービスから仮想アシスタントに至るまで、ユーザインタラクションの強化において重要な役割を果たす。
これらの対話では,ユーザのニーズを迅速に解決するために,ユーザの目標を自動的に識別することが重要である。
これにより、Intent Detectionを実行するモデルの統合が必要になった。
しかし、ユーザの意図は多様で動的であり、事前定義された意図の固定セットを維持することは困難である。
結果として、より実践的なアプローチは、新たな意図が現れると識別できるモデルを開発することである。
我々は最近の研究で注目されているIntent Discoveryの課題に対処する。
既存の手法では、新しい意図を正しく識別するために大量のデータをトレーニングする必要がある。
この問題を解決するために、GPT-4のような大規模言語モデル(LLM)を効果的に促し、最小ラベル付きデータで新たな意図を発見できる新しいトレーニングフリー手法であるIntentGPTを導入する。
IntentGPT は、In-Context Learning のインフォメーションプロンプトを生成する \textit{In-Context Prompt Generator} と、発話からユーザ意図を分類して発見する \textit{Intent Predictor} と、関連するいくつかの例と、インプロンプトにインジェクションされる既知のインテントのセットを選択する \textit{Semantic Few-Shot Sampler} とから構成される。
IntentGPTは、CLINCやBANKINGなど、一般的なベンチマークにおいて、広範なドメイン固有データや微調整を必要とする従来の手法よりも優れていることを示す。
関連論文リスト
- Eliciting Human Preferences with Language Models [56.68637202313052]
言語モデル(LM)は、ラベル付き例や自然言語のプロンプトを使用してターゲットタスクを実行するように指示することができる。
タスク仕様プロセスのガイドには*LM自身を使うことを提案します。
我々は、メール検証、コンテンツレコメンデーション、道徳的推論の3つの領域でGATEを研究している。
論文 参考訳(メタデータ) (2023-10-17T21:11:21Z) - DialogVCS: Robust Natural Language Understanding in Dialogue System
Upgrade [36.433020605744986]
製品対話システムの定期的な更新では、実際のユーザからの新たなデータが既存のデータにマージされる。
新しい意図が出現し、既存の意図と意味的な絡み合いを持つかもしれない。
4つの対話バージョン管理データセット(VCS)からなる新しいベンチマークをセットアップする。
システム更新における不完全なデータによる意図検出を,肯定的かつ未定な意図を持つ多ラベル分類タスクとして定式化する。
論文 参考訳(メタデータ) (2023-05-24T05:53:38Z) - Interactive and Visual Prompt Engineering for Ad-hoc Task Adaptation
with Large Language Models [116.25562358482962]
最先端のニューラルネットワークモデルは、教師付きトレーニングを必要とせずに、アドホックな言語タスクを解決するために使用することができる。
PromptIDEを使えば、ユーザはプロンプトのバリエーションを試すことができ、プロンプトのパフォーマンスを視覚化し、反復的にプロンプトを最適化できる。
論文 参考訳(メタデータ) (2022-08-16T17:17:53Z) - New Intent Discovery with Pre-training and Contrastive Learning [21.25371293641141]
新しい意図発見は、ユーザ発話から新しい意図カテゴリーを明らかにして、サポート対象クラスのセットを拡張することを目的としている。
既存のアプローチは通常、大量のラベル付き発話に依存する。
本稿では,クラスタリングのためのラベルなしデータにおける自己超越的信号を活用するために,新たなコントラスト損失を提案する。
論文 参考訳(メタデータ) (2022-05-25T17:07:25Z) - A Framework to Generate High-Quality Datapoints for Multiple Novel
Intent Detection [24.14668837496296]
MNIDは、予算的な人的アノテーションコストで複数の新しい意図を検出するためのフレームワークである。
精度とF1スコアの点でベースライン法より優れている。
論文 参考訳(メタデータ) (2022-05-04T11:32:15Z) - Continuous representations of intents for dialogue systems [10.031004070657122]
最近まで、焦点は固定された、離散的な多くの意図を検出することであった。
近年,ゼロショット学習の文脈において,無意識の意図検出に関するいくつかの研究が行われている。
本稿では,専門家のIntent Spaceに意図を連続的に配置する新しいモデルを提案する。
論文 参考訳(メタデータ) (2021-05-08T15:08:20Z) - Discriminative Nearest Neighbor Few-Shot Intent Detection by
Transferring Natural Language Inference [150.07326223077405]
データ不足を緩和するためには、ほとんどショットラーニングが注目を集めている。
深部自己注意を伴う識別的近傍分類を提示する。
自然言語推論モデル(NLI)を変換することで識別能力を高めることを提案する。
論文 参考訳(メタデータ) (2020-10-25T00:39:32Z) - Learning with Weak Supervision for Email Intent Detection [56.71599262462638]
本稿では,メールの意図を検出するために,ユーザアクションを弱い監視源として活用することを提案する。
メール意図識別のためのエンドツーエンドの堅牢なディープニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-05-26T23:41:05Z) - Intent Mining from past conversations for conversational agent [1.9754522186574608]
ボットは、ラウンド・ザ・タイムのサポートと顧客エンゲージメントを高めるために、ますますデプロイされている。
商用ボット構築フレームワークの多くは、ユーザ入力を認識するためのインテントモデルの構築とトレーニングを必要とする標準的なアプローチに従っている。
我々は、不均衡なデータクラスタリングのための新しい密度ベースクラスタリングアルゴリズムITERDB-LabelSCANを導入した。
論文 参考訳(メタデータ) (2020-05-22T05:29:13Z) - AGIF: An Adaptive Graph-Interactive Framework for Joint Multiple Intent
Detection and Slot Filling [69.59096090788125]
本稿では,多目的検出とスロットフィリングを併用する適応グラフ対話フレームワーク(AGIF)を提案する。
スロットとインテントの強い相関関係をモデル化するために,インテント-スロットグラフ相互作用層を導入する。
このような相互作用層が各トークンに適応的に適用され、関連する意図情報を自動抽出する利点がある。
論文 参考訳(メタデータ) (2020-04-21T15:07:34Z) - Efficient Intent Detection with Dual Sentence Encoders [53.16532285820849]
本稿では,USE や ConveRT などの事前訓練された二重文エンコーダによるインテント検出手法を提案する。
提案するインテント検出器の有用性と適用性を示し,完全なBERT-Largeモデルに基づくインテント検出器よりも優れた性能を示す。
コードだけでなく、新しい挑戦的な単一ドメイン意図検出データセットもリリースしています。
論文 参考訳(メタデータ) (2020-03-10T15:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。