論文の概要: Generate then Refine: Data Augmentation for Zero-shot Intent Detection
- arxiv url: http://arxiv.org/abs/2410.01953v2
- Date: Tue, 15 Oct 2024 07:02:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 09:44:42.023463
- Title: Generate then Refine: Data Augmentation for Zero-shot Intent Detection
- Title(参考訳): Generate then Refine:Zero-shot Intent Detectionのためのデータ拡張
- Authors: I-Fan Lin, Faegheh Hasibi, Suzan Verberne,
- Abstract要約: ゼロリソース領域におけるインテント検出のためのデータ拡張手法を提案する。
我々は、ゼロショット設定でオープンソースの大言語モデルを用いて、意図ラベルに対する発話を生成する。
第2に、生成された発話を改善するために、より小さなシーケンス・ツー・シーケンス・モデルを開発する。
- 参考スコア(独自算出の注目度): 5.257115841810258
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this short paper we propose a data augmentation method for intent detection in zero-resource domains. Existing data augmentation methods rely on few labelled examples for each intent category, which can be expensive in settings with many possible intents. We use a two-stage approach: First, we generate utterances for intent labels using an open-source large language model in a zero-shot setting. Second, we develop a smaller sequence-to-sequence model (the Refiner), to improve the generated utterances. The Refiner is fine-tuned on seen domains and then applied to unseen domains. We evaluate our method by training an intent classifier on the generated data, and evaluating it on real (human) data. We find that the Refiner significantly improves the data utility and diversity over the zero-shot LLM baseline for unseen domains and over common baseline approaches. Our results indicate that a two-step approach of a generative LLM in zero-shot setting and a smaller sequence-to-sequence model can provide high-quality data for intent detection.
- Abstract(参考訳): 本稿では,ゼロリソース領域におけるインテント検出のためのデータ拡張手法を提案する。
既存のデータ拡張方法は、インテントカテゴリごとにラベル付けされた例がほとんどないため、多くのインテントが考えられる設定でコストがかかる可能性がある。
まず、ゼロショット設定でオープンソースの大言語モデルを使用してインテントラベルの発話を生成する。
第2に、生成された発話を改善するために、より小さなシーケンス・ツー・シーケンス・モデル(Refiner)を開発する。
Refinerは目に見えないドメインに微調整され、見知らぬドメインに適用される。
提案手法は、生成したデータに対して意図分類器を訓練し、実際の(人間)データ上で評価することで評価する。
その結果、Refinerは、目に見えないドメインや一般的なベースラインアプローチに対するゼロショットLCMベースラインよりも、データユーティリティと多様性を著しく改善することがわかった。
その結果、ゼロショット設定におけるジェネレーションLLMの2段階的アプローチと、より小さなシーケンス・ツー・シーケンス・モデルにより、インテント検出のための高品質なデータを提供することが可能であることが示唆された。
関連論文リスト
- ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - Going beyond research datasets: Novel intent discovery in the industry
setting [60.90117614762879]
本稿では,大規模なeコマースプラットフォームに展開する意図発見パイプラインを改善する手法を提案する。
ドメイン内データに基づく事前学習型言語モデルの利点を示す。
また,クラスタリングタスクの微調整中に,実生活データセットの会話構造(質問と回答)を利用するための最善の方法も考案した。
論文 参考訳(メタデータ) (2023-05-09T14:21:29Z) - Text2Seg: Remote Sensing Image Semantic Segmentation via Text-Guided Visual Foundation Models [7.452422412106768]
リモートセマンティックセマンティックセグメンテーションのためのText2Segという新しい手法を提案する。
自動プロンプト生成プロセスを使用することで、広範なアノテーションへの依存を克服する。
我々は,Text2SegがバニラSAMモデルと比較してゼロショット予測性能を著しく向上することを示した。
論文 参考訳(メタデータ) (2023-04-20T18:39:41Z) - Knowledge Combination to Learn Rotated Detection Without Rotated
Annotation [53.439096583978504]
回転バウンディングボックスは、伸長したオブジェクトの出力あいまいさを劇的に減少させる。
この効果にもかかわらず、回転検出器は広く使われていない。
本稿では,モデルが正確な回転ボックスを予測できるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-05T03:07:36Z) - Selective In-Context Data Augmentation for Intent Detection using
Pointwise V-Information [100.03188187735624]
PLMとPVI(pointwise V-information)に基づく新しい手法を導入し,モデル学習におけるデータポイントの有用性を計測する。
提案手法はまず,学習データの小さなシード上でPLMを微調整し,与えられた意図に対応する発話を新たに生成する。
そこで本手法は,大規模言語モデルの表現力を活用し,多様な学習データを生成する。
論文 参考訳(メタデータ) (2023-02-10T07:37:49Z) - Data Augmentation for Intent Classification with Off-the-shelf Large
Language Models [13.895236210726202]
市販言語モデルを用いた意図分類のためのラベル付き学習データを生成するためのプロンプトベースアプローチを提案する。
提案手法を4つの多目的分類タスクで数ショットで評価する。
論文 参考訳(メタデータ) (2022-04-05T03:29:26Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - Enhancing the Generalization for Intent Classification and Out-of-Domain
Detection in SLU [70.44344060176952]
インテント分類は、音声言語理解(SLU)における主要な課題である
近年の研究では、余分なデータやラベルを使用することで、OOD検出性能が向上することが示されている。
本稿では、IND意図分類とOOD検出の両方をサポートしながら、INDデータのみを用いてモデルを訓練することを提案する。
論文 参考訳(メタデータ) (2021-06-28T08:27:38Z) - OVANet: One-vs-All Network for Universal Domain Adaptation [78.86047802107025]
既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
論文 参考訳(メタデータ) (2021-04-07T18:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。