論文の概要: Enhancing the Generalization for Intent Classification and Out-of-Domain
Detection in SLU
- arxiv url: http://arxiv.org/abs/2106.14464v1
- Date: Mon, 28 Jun 2021 08:27:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 21:45:32.967179
- Title: Enhancing the Generalization for Intent Classification and Out-of-Domain
Detection in SLU
- Title(参考訳): sluにおける意図分類と領域外検出の一般化
- Authors: Yilin Shen, Yen-Chang Hsu, Avik Ray, Hongxia Jin
- Abstract要約: インテント分類は、音声言語理解(SLU)における主要な課題である
近年の研究では、余分なデータやラベルを使用することで、OOD検出性能が向上することが示されている。
本稿では、IND意図分類とOOD検出の両方をサポートしながら、INDデータのみを用いてモデルを訓練することを提案する。
- 参考スコア(独自算出の注目度): 70.44344060176952
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intent classification is a major task in spoken language understanding (SLU).
Since most models are built with pre-collected in-domain (IND) training
utterances, their ability to detect unsupported out-of-domain (OOD) utterances
has a critical effect in practical use. Recent works have shown that using
extra data and labels can improve the OOD detection performance, yet it could
be costly to collect such data. This paper proposes to train a model with only
IND data while supporting both IND intent classification and OOD detection. Our
method designs a novel domain-regularized module (DRM) to reduce the
overconfident phenomenon of a vanilla classifier, achieving a better
generalization in both cases. Besides, DRM can be used as a drop-in replacement
for the last layer in any neural network-based intent classifier, providing a
low-cost strategy for a significant improvement. The evaluation on four
datasets shows that our method built on BERT and RoBERTa models achieves
state-of-the-art performance against existing approaches and the strong
baselines we created for the comparisons.
- Abstract(参考訳): インテント分類は、音声言語理解(SLU)における主要な課題である。
ほとんどのモデルは、事前コンパイルされたドメイン内(IND)訓練発話で構築されているため、サポート対象のドメイン外(OOD)発話を検出する能力は、実用上重要な効果がある。
近年の研究では、余分なデータやラベルを使用することでOOD検出性能が向上することが示されているが、そのようなデータ収集にはコストがかかる可能性がある。
本稿では、IND意図分類とOOD検出の両方をサポートしながら、INDデータのみを用いてモデルを訓練することを提案する。
提案手法は,バニラ分類器の過密な現象を低減し,両ケースにおいてより優れた一般化を実現する新しいドメインレギュラ化モジュール(drm)を設計する。
さらにDRMは、ニューラルネットワークベースのインテント分類器の最後のレイヤのドロップイン置換として使用することができ、大幅な改善のための低コストな戦略を提供する。
4つのデータセットの評価結果から,BERTモデルとRoBERTaモデルを用いて構築した手法は,既存のアプローチに対する最先端のパフォーマンスと,比較のために作成した強力なベースラインを実現する。
関連論文リスト
- EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Mean-AP Guided Reinforced Active Learning for Object Detection [31.304039641225504]
本稿では,オブジェクト検出のための平均APガイド型アクティブラーニングについて紹介する。
MGRALは、予測されたモデル出力変化の概念を深層検知ネットワークの情報性として活用する新しいアプローチである。
提案手法は,物体検出のための強化学習に基づく能動学習における新たなパラダイムを確立し,高い性能を示す。
論文 参考訳(メタデータ) (2023-10-12T14:59:22Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - Boosting the Generalization Capability in Cross-Domain Few-shot Learning
via Noise-enhanced Supervised Autoencoder [23.860842627883187]
我々は、新しいノイズ強調型教師付きオートエンコーダ(NSAE)を用いて、特徴分布のより広範なバリエーションを捉えるようモデルに教える。
NSAEは入力を共同で再構築し、入力のラベルと再構成されたペアを予測することによってモデルを訓練する。
また、NSAE構造を利用して、より適応性を高め、対象領域の分類性能を向上させる2段階の微調整手順を提案する。
論文 参考訳(メタデータ) (2021-08-11T04:45:56Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - EARLIN: Early Out-of-Distribution Detection for Resource-efficient
Collaborative Inference [4.826988182025783]
協調推論により、リソース制約のあるエッジデバイスは、入力をサーバにアップロードすることで推論を行うことができる。
このセットアップは、成功した推論のためにコスト効率よく機能するが、モデルがトレーニングされていない入力サンプルに直面すると、非常にパフォーマンスが低下する。
我々は,事前訓練されたCNNモデルの浅い層から重要な特徴を抽出する,新しい軽量OOD検出手法を提案する。
論文 参考訳(メタデータ) (2021-06-25T18:43:23Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Likelihood Ratios and Generative Classifiers for Unsupervised
Out-of-Domain Detection In Task Oriented Dialog [24.653367921046442]
タスクベース対話システムに対する自然言語文入力のためのOOD検出に着目する。
公開データセットの4K OODサンプルのデータセットをSchusterらからリリースしています。
論文 参考訳(メタデータ) (2019-12-30T03:31:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。