論文の概要: Out-of-Domain Intent Detection Considering Multi-Turn Dialogue Contexts
- arxiv url: http://arxiv.org/abs/2305.03237v2
- Date: Fri, 23 Feb 2024 09:13:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 18:39:06.882639
- Title: Out-of-Domain Intent Detection Considering Multi-Turn Dialogue Contexts
- Title(参考訳): マルチターン対話コンテキストを考慮したドメイン外インテント検出
- Authors: Hao Lang, Yinhe Zheng, Binyuan Hui, Fei Huang, Yongbin Li
- Abstract要約: 我々は,OODインテント検出タスクにおけるマルチターンコンテキストをモデル化するためのコンテキスト認識型OODインテント検出(Caro)フレームワークを提案する。
CaroはF1-OODスコアを29%以上改善することで、マルチターンOOD検出タスクの最先端性能を確立している。
- 参考スコア(独自算出の注目度): 91.43701971416213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-Domain (OOD) intent detection is vital for practical dialogue systems,
and it usually requires considering multi-turn dialogue contexts. However, most
previous OOD intent detection approaches are limited to single dialogue turns.
In this paper, we introduce a context-aware OOD intent detection (Caro)
framework to model multi-turn contexts in OOD intent detection tasks.
Specifically, we follow the information bottleneck principle to extract robust
representations from multi-turn dialogue contexts. Two different views are
constructed for each input sample and the superfluous information not related
to intent detection is removed using a multi-view information bottleneck loss.
Moreover, we also explore utilizing unlabeled data in Caro. A two-stage
training process is introduced to mine OOD samples from these unlabeled data,
and these OOD samples are used to train the resulting model with a
bootstrapping approach. Comprehensive experiments demonstrate that Caro
establishes state-of-the-art performances on multi-turn OOD detection tasks by
improving the F1-OOD score of over $29\%$ compared to the previous best method.
- Abstract(参考訳): Out-of-Domain (OOD) インテント検出は実用的な対話システムには不可欠であり、通常はマルチターン対話コンテキストを検討する必要がある。
しかし、従来のOODインテント検出手法は単一の対話のみに限られていた。
本稿では,OODインテント検出タスクにおけるマルチターンコンテキストをモデル化するためのコンテキスト認識型OODインテント検出(Caro)フレームワークを提案する。
具体的には,マルチターン対話の文脈からロバスト表現を抽出するための情報ボトルネック原理に従う。
入力サンプル毎に2つの異なるビューを構築し、多視点情報ボトルネック損失を用いて意図検出に関係のない過剰な情報を除去する。
さらに,Caroにおけるラベルなしデータの利用についても検討する。
これらのラベルのないデータからOODサンプルをマイニングするために2段階のトレーニングプロセスを導入し、これらのOODサンプルを使用してブートストラップアプローチによるモデルのトレーニングを行う。
総合的な実験により、CaroはF1-OODのスコアを以前のベストメソッドと比較して29\%以上改善することで、マルチターンOOD検出タスクの最先端性能を確立している。
関連論文リスト
- 'No' Matters: Out-of-Distribution Detection in Multimodality Long Dialogue [3.971267935825097]
本稿では,OOD対話と画像の効率よく検出することで,複数ラウンドの長い対話を含むユーザエクスペリエンスを向上させることを目的とする。
本稿では,視覚言語モデルと新たなスコアを統合したDIAEF(Dialogue Image Aligning and Enhancing Framework)を提案する。
論文 参考訳(メタデータ) (2024-10-31T12:45:54Z) - Diversity-grounded Channel Prototypical Learning for Out-of-Distribution Intent Detection [18.275098909064127]
本研究では,大規模言語モデル(LLM)のための新しい微調整フレームワークを提案する。
ダイバーシティグラウンドのプロンプトチューニング手法を用いて,各IDクラスのセマンティックプロトタイプを構築した。
徹底的な評価のために,本手法を一般的な微調整手法と比較した。
論文 参考訳(メタデータ) (2024-09-17T12:07:17Z) - TagOOD: A Novel Approach to Out-of-Distribution Detection via Vision-Language Representations and Class Center Learning [26.446233594630087]
視覚言語表現を用いたOOD検出のための新しいアプローチである textbfTagOOD を提案する。
TagOODは、抽出されたオブジェクトの特徴に基づいて軽量なネットワークをトレーニングし、代表的なクラスセンターを学習する。
これらの中心は、OOD検出における無関係な画像特徴の影響を最小限に抑え、INDオブジェクトクラスの中心的な傾向を捉えている。
論文 参考訳(メタデータ) (2024-08-28T06:37:59Z) - MultiOOD: Scaling Out-of-Distribution Detection for Multiple Modalities [11.884004583641325]
我々は,多種多様なデータセットサイズと様々なモダリティの組み合わせを特徴とする,第一種ベンチマークであるMultiOODを紹介する。
我々はまず,既存のOOD検出アルゴリズムをMultiOOD上で評価した。
本稿では,近隣クラスからの情報を活用することで,より広い特徴空間を探索する新しいアウトリー合成手法NP-Mixを提案する。
論文 参考訳(メタデータ) (2024-05-27T17:59:02Z) - Negative Label Guided OOD Detection with Pretrained Vision-Language Models [96.67087734472912]
Out-of-distriion (OOD) は未知のクラスからサンプルを識別することを目的としている。
我々は,大規模なコーパスデータベースから大量の負のラベルを抽出する,NegLabelと呼ばれる新しいポストホックOOD検出手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:19:52Z) - General-Purpose Multi-Modal OOD Detection Framework [5.287829685181842]
アウト・オブ・ディストリビューション(OOD)検出は、機械学習(ML)システムの安全性と信頼性を保証するために重要なトレーニングデータとは異なるテストサンプルを特定する。
本稿では,2値分類器とコントラスト学習コンポーネントを組み合わせた,汎用的な弱教師付きOOD検出フレームワークWOODを提案する。
提案したWOODモデルを複数の実世界のデータセット上で評価し、実験結果により、WOODモデルがマルチモーダルOOD検出の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-24T18:50:49Z) - SR-OOD: Out-of-Distribution Detection via Sample Repairing [48.272537939227206]
アウト・オブ・ディストリビューション(OOD)検出は、機械学習モデルの信頼性と堅牢性を保証するための重要なタスクである。
近年の研究では、生成モデルはOODサンプルに高い信頼度を割り当てることがしばしばあり、データのセマンティックな情報を捕捉できないことが示されている。
我々は,サンプル修復の利点を生かし,新しいOOD検出フレームワーク,SR-OODを提案する。
本フレームワークは,OOD検出における最先端な生成手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-05-26T16:35:20Z) - Pseudo-OOD training for robust language models [78.15712542481859]
OOD検出は、あらゆる産業規模のアプリケーションに対する信頼性の高い機械学習モデルの鍵となるコンポーネントである。
In-distribution(IND)データを用いて擬似OODサンプルを生成するPOORE-POORE-POSthoc pseudo-Ood Regularizationを提案する。
我々は3つの現実世界の対話システムに関する枠組みを広く評価し、OOD検出における新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2022-10-17T14:32:02Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。