論文の概要: How DDAIR you? Disambiguated Data Augmentation for Intent Recognition
- arxiv url: http://arxiv.org/abs/2601.11234v1
- Date: Fri, 16 Jan 2026 12:26:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.484266
- Title: How DDAIR you? Disambiguated Data Augmentation for Intent Recognition
- Title(参考訳): DDAIRの使い方 : インテント認識のための曖昧なデータ拡張
- Authors: Galo Castillo-López, Alexis Lombard, Nasredine Semmar, Gaël de Chalendar,
- Abstract要約: 大規模言語モデル(LLM)は、意図検出などの分類タスクにおいて、データ拡張に有効である。
LLMは、意図しないクラスに関して不明瞭な例を必然的に生成する。
DDAIR (Disambiguated Data Augmentation for Intent Recognition) を提案する。
- 参考スコア(独自算出の注目度): 0.3997220396722048
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are effective for data augmentation in classification tasks like intent detection. In some cases, they inadvertently produce examples that are ambiguous with regard to untargeted classes. We present DDAIR (Disambiguated Data Augmentation for Intent Recognition) to mitigate this problem. We use Sentence Transformers to detect ambiguous class-guided augmented examples generated by LLMs for intent recognition in low-resource scenarios. We identify synthetic examples that are semantically more similar to another intent than to their target one. We also provide an iterative re-generation method to mitigate such ambiguities. Our findings show that sentence embeddings effectively help to (re)generate less ambiguous examples, and suggest promising potential to improve classification performance in scenarios where intents are loosely or broadly defined.
- Abstract(参考訳): 大規模言語モデル(LLM)は、意図検出などの分類タスクにおいて、データ拡張に有効である。
場合によっては、意図しないクラスに関して不明瞭な例を不注意に生成することもある。
本稿では,この問題を緩和するためにDDAIR (Disambiguated Data Augmentation for Intent Recognition)を提案する。
我々はSentence Transformerを用いて、低リソースシナリオにおける意図認識のためにLLMが生成したあいまいなクラス誘導型拡張例を検出する。
目的とするものよりも意味的に他の意図に類似した合成例を同定する。
このようなあいまいさを緩和する反復的再生成法も提案する。
その結果, 文の埋め込みは, 曖昧でない例を効果的に生成(再生成)し, 意図がゆるや広範に定義されたシナリオにおいて, 分類性能を向上させる可能性が示唆された。
関連論文リスト
- Weakly-Supervised Contrastive Learning for Imprecise Class Labels [50.57424331797865]
正対と負対を定義するために「連続的意味的類似性」の概念を導入する。
弱教師付きコントラスト学習のためのグラフ理論フレームワークを提案する。
我々のフレームワークは非常に多用途であり、多くの弱い教師付き学習シナリオに適用できる。
論文 参考訳(メタデータ) (2025-05-28T06:50:40Z) - Dynamic Label Name Refinement for Few-Shot Dialogue Intent Classification [10.850826520563967]
そこで本研究では,文脈内学習による対話意図分類のための新しい手法を提案する。
本手法は,テスト入力に関する関連事例をトレーニングセットから検索する。
我々は,意味的理解に基づくインテントラベルを動的に洗練するために,大規模言語モデルを活用する。
論文 参考訳(メタデータ) (2024-12-20T06:53:57Z) - Generate then Refine: Data Augmentation for Zero-shot Intent Detection [5.257115841810258]
ゼロリソース領域におけるインテント検出のためのデータ拡張手法を提案する。
我々は、ゼロショット設定でオープンソースの大言語モデルを用いて、意図ラベルに対する発話を生成する。
第2に、生成された発話を改善するために、より小さなシーケンス・ツー・シーケンス・モデルを開発する。
論文 参考訳(メタデータ) (2024-10-02T18:56:03Z) - Selective In-Context Data Augmentation for Intent Detection using
Pointwise V-Information [100.03188187735624]
PLMとPVI(pointwise V-information)に基づく新しい手法を導入し,モデル学習におけるデータポイントの有用性を計測する。
提案手法はまず,学習データの小さなシード上でPLMを微調整し,与えられた意図に対応する発話を新たに生成する。
そこで本手法は,大規模言語モデルの表現力を活用し,多様な学習データを生成する。
論文 参考訳(メタデータ) (2023-02-10T07:37:49Z) - Learning to Imagine: Diversify Memory for Incremental Learning using
Unlabeled Data [69.30452751012568]
本研究では,多様な特徴を適応的に生成することで,経験を多様化する学習可能な特徴生成装置を開発する。
生成したサンプルを前例とセマンティックに整合させるために,意味的コントラスト学習を導入する。
提案手法は, 余分な推論コストを伴わず, 2つのベンチマークで最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-04-19T15:15:18Z) - Are Pretrained Transformers Robust in Intent Classification? A Missing
Ingredient in Evaluation of Out-of-Scope Intent Detection [93.40525251094071]
まず、少数ショットの意図認識タスクにおいて、ドメイン内スコープ外検出の重要性を指摘する。
次に、ドメイン内だがスコープ外(ID-OOS)であるサンプルに対して、事前訓練したTransformerベースのモデルの脆弱性を説明する。
論文 参考訳(メタデータ) (2021-06-08T17:51:12Z) - Generalized Zero-shot Intent Detection via Commonsense Knowledge [5.398580049917152]
学習データ不足の問題を克服するために,教師なしの方法でコモンセンス知識を活用する意図検出モデル RIDE を提案する。
RIDEは、発話と意図ラベルの間の深い意味的関係をキャプチャする、堅牢で一般化可能な関係メタ機能を計算する。
広範に使用されている3つのインテント検出ベンチマークに関する広範囲な実験的分析により、関係メタ機能により、目に見えないインテントと見えないインテントの両方を検出する精度が著しく向上することが示された。
論文 参考訳(メタデータ) (2021-02-04T23:36:41Z) - Discriminative Nearest Neighbor Few-Shot Intent Detection by
Transferring Natural Language Inference [150.07326223077405]
データ不足を緩和するためには、ほとんどショットラーニングが注目を集めている。
深部自己注意を伴う識別的近傍分類を提示する。
自然言語推論モデル(NLI)を変換することで識別能力を高めることを提案する。
論文 参考訳(メタデータ) (2020-10-25T00:39:32Z) - Efficient Intent Detection with Dual Sentence Encoders [53.16532285820849]
本稿では,USE や ConveRT などの事前訓練された二重文エンコーダによるインテント検出手法を提案する。
提案するインテント検出器の有用性と適用性を示し,完全なBERT-Largeモデルに基づくインテント検出器よりも優れた性能を示す。
コードだけでなく、新しい挑戦的な単一ドメイン意図検出データセットもリリースしています。
論文 参考訳(メタデータ) (2020-03-10T15:33:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。