論文の概要: Fuzzy Classification of Multi-intent Utterances
- arxiv url: http://arxiv.org/abs/2104.10830v1
- Date: Thu, 22 Apr 2021 02:15:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-23 13:59:41.558810
- Title: Fuzzy Classification of Multi-intent Utterances
- Title(参考訳): マルチインテント発話のファジィ分類
- Authors: Geetanjali Bihani and Julia Taylor Rayz
- Abstract要約: 現在のインテント分類アプローチでは、バイナリインテントクラスメンバシップを自然言語発話に割り当てる。
本稿では,多言語発話だけでなく,単文の曖昧性にも対処するためのスキームを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current intent classification approaches assign binary intent class
memberships to natural language utterances while disregarding the inherent
vagueness in language and the corresponding vagueness in intent class
boundaries. In this work, we propose a scheme to address the ambiguity in
single-intent as well as multi-intent natural language utterances by creating
degree memberships over fuzzified intent classes. To our knowledge, this is the
first work to address and quantify the impact of the fuzzy nature of natural
language utterances over intent category memberships. Additionally, our
approach overcomes the sparsity of multi-intent utterance data to train
classification models by using a small database of single intent utterances to
generate class memberships over multi-intent utterances. We evaluate our
approach over two task-oriented dialog datasets, across different fuzzy
membership generation techniques and approximate string similarity measures.
Our results reveal the impact of lexical overlap between utterances of
different intents, and the underlying data distributions, on the fuzzification
of intent memberships. Moreover, we evaluate the accuracy of our approach by
comparing the defuzzified memberships to their binary counterparts, across
different combinations of membership functions and string similarity measures.
- Abstract(参考訳): 現在の意図分類手法は、言語固有の曖昧さとそれに対応する曖昧さを無視しながら、自然言語の発話にバイナリーインテントクラスメンバーシップを割り当てている。
本研究では、ファジィ化意図クラス上での次数メンバシップを作成することにより、単一意図と多意図自然言語のあいまいさに対処する手法を提案する。
私たちの知る限りでは、インテントカテゴリのメンバシップに対する自然言語発話のファジィな性質の影響に対処し、定量化するのはこれが初めてです。
さらに,単発発話の小さなデータベースを用いて複数発発話におけるクラスメンバシップを生成することにより,分類モデルの学習における多目的発話データのスパース性を克服する。
異なるファジィメンバシップ生成手法と近似文字列類似度尺度を用いて,タスク指向の2つのダイアログデータセットに対するアプローチを評価した。
その結果、異なる意図の発話と基礎となるデータ分布との語彙的重なりが、意図のメンバーシップの曖昧さに与える影響が明らかになった。
さらに, メンバシップ関数と文字列類似度尺度の組み合わせにより, 難読化メンバシップとバイナリメンバシップを比較することにより, アプローチの正確性を評価する。
関連論文リスト
- Leveraging Hierarchical Prototypes as the Verbalizer for Implicit Discourse Relation Recognition [7.149359970799236]
暗黙の言論関係認識は、明示的な言論接続によってリンクされていないテキストのスパン間の関係を決定することを含む。
それまでの作業は、暗黙の言論関係認識のための手話代行にのみ依存していた。
特定のクラスレベルの意味的特徴をキャプチャするプロトタイプと、異なるクラスに対する階層的なラベル構造を、動詞化子として活用する。
論文 参考訳(メタデータ) (2024-11-22T12:01:04Z) - A Simple Meta-learning Paradigm for Zero-shot Intent Classification with
Mixture Attention Mechanism [17.228616743739412]
ゼロショット意図分類のためのシンプルなメタ学習パラダイムを提案する。
発話のセマンティック表現を改善するために,新しい混合アテンション機構を導入する。
そこで我々は, メタ学習戦略を用いて, ゼロショット意図分類を改定する。
論文 参考訳(メタデータ) (2022-06-05T13:37:51Z) - A Multi-level Supervised Contrastive Learning Framework for Low-Resource
Natural Language Inference [54.678516076366506]
自然言語推論(NLI)は、自然言語理解において、ますます重要な課題である。
本稿では,低リソースな自然言語推論のためのマルチSCLという,マルチレベルの教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-31T05:54:18Z) - Leveraging Acoustic and Linguistic Embeddings from Pretrained speech and
language Models for Intent Classification [81.80311855996584]
本研究では,前訓練された音声認識システムから抽出した音響特性と,前訓練された言語モデルから学習した言語特性を用いた新しい意図分類フレームワークを提案する。
ATIS と Fluent 音声コーパスの精度は 90.86% と 99.07% である。
論文 参考訳(メタデータ) (2021-02-15T07:20:06Z) - Generalized Zero-shot Intent Detection via Commonsense Knowledge [5.398580049917152]
学習データ不足の問題を克服するために,教師なしの方法でコモンセンス知識を活用する意図検出モデル RIDE を提案する。
RIDEは、発話と意図ラベルの間の深い意味的関係をキャプチャする、堅牢で一般化可能な関係メタ機能を計算する。
広範に使用されている3つのインテント検出ベンチマークに関する広範囲な実験的分析により、関係メタ機能により、目に見えないインテントと見えないインテントの両方を検出する精度が著しく向上することが示された。
論文 参考訳(メタデータ) (2021-02-04T23:36:41Z) - General-Purpose Speech Representation Learning through a Self-Supervised
Multi-Granularity Framework [114.63823178097402]
本稿では,汎用音声表現学習のための自己教師型学習フレームワーク MGF を提案する。
具体的には、生成学習手法を用いて、小さな時間スケールできめ細かい情報を捕捉し、識別学習手法を用いて、粗い情報や意味情報を大規模に蒸留することを提案する。
論文 参考訳(メタデータ) (2021-02-03T08:13:21Z) - A survey of joint intent detection and slot-filling models in natural
language understanding [0.0]
この記事は、自然言語理解、特に統合意図分類とスロットフィリングにおける過去の研究のまとめである。
本稿では,傾向,アプローチ,課題,データセット,意図分類における評価指標,スロット充填について述べる。
論文 参考訳(メタデータ) (2021-01-20T12:15:11Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z) - Composed Variational Natural Language Generation for Few-shot Intents [118.37774762596123]
現実的な不均衡シナリオにおいて、数ショットのインテントに対するトレーニング例を生成します。
生成した発話の質を評価するために、一般化された複数ショット意図検出タスクについて実験を行った。
提案モデルでは,2つの実世界の意図検出データセットに対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-09-21T17:48:43Z) - Leveraging Adversarial Training in Self-Learning for Cross-Lingual Text
Classification [52.69730591919885]
本稿では,ラベル保存型入力摂動の最大損失を最小限に抑える半教師付き対向学習法を提案する。
多様な言語群に対する文書分類と意図分類において,有効性が著しく向上するのを観察する。
論文 参考訳(メタデータ) (2020-07-29T19:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。