論文の概要: Watch the Neighbors: A Unified K-Nearest Neighbor Contrastive Learning
Framework for OOD Intent Discovery
- arxiv url: http://arxiv.org/abs/2210.08909v1
- Date: Mon, 17 Oct 2022 10:04:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 18:34:21.732011
- Title: Watch the Neighbors: A Unified K-Nearest Neighbor Contrastive Learning
Framework for OOD Intent Discovery
- Title(参考訳): 隣人を見る:OODインテント発見のためのK-Nearest Neighbor Contrastive Learning Framework
- Authors: Yutao Mou, Keqing He, Pei Wang, Yanan Wu, Jingang Wang, Wei Wu, Weiran
Xu
- Abstract要約: 我々は、OODの意図を発見するために、K-アレスト近傍のコントラスト学習フレームワークを提案する。
IND事前学習段階において,クラス内多様性を維持しつつ,クラス間の識別的特徴を学習するためのKCL目標を提案する。
OODクラスタリングの段階では、真の強陰性サンプルをマイニングしてコンパクトクラスタを形成するKCC法を提案する。
- 参考スコア(独自算出の注目度): 32.69035328161356
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Discovering out-of-domain (OOD) intent is important for developing new skills
in task-oriented dialogue systems. The key challenges lie in how to transfer
prior in-domain (IND) knowledge to OOD clustering, as well as jointly learn OOD
representations and cluster assignments. Previous methods suffer from in-domain
overfitting problem, and there is a natural gap between representation learning
and clustering objectives. In this paper, we propose a unified K-nearest
neighbor contrastive learning framework to discover OOD intents. Specifically,
for IND pre-training stage, we propose a KCL objective to learn inter-class
discriminative features, while maintaining intra-class diversity, which
alleviates the in-domain overfitting problem. For OOD clustering stage, we
propose a KCC method to form compact clusters by mining true hard negative
samples, which bridges the gap between clustering and representation learning.
Extensive experiments on three benchmark datasets show that our method achieves
substantial improvements over the state-of-the-art methods.
- Abstract(参考訳): タスク指向対話システムにおける新しいスキル開発には,out-of-domain(ood)インテントの発見が重要である。
主な課題は、事前ドメイン内(IND)知識をOODクラスタリングに転送する方法と、OOD表現とクラスタ割り当てを共同で学習する方法である。
従来の手法はドメイン内オーバーフィッティングの問題に悩まされており、表現学習とクラスタリングの目的の間には自然なギャップがある。
本稿では,OODの意図を発見するために,K-nearest近傍のコントラスト学習フレームワークを提案する。
具体的には,ind事前学習段階において,クラス内多様性を維持しつつクラス間識別特徴を学習し,ドメイン内オーバーフィッティング問題を緩和するkcl目標を提案する。
OODクラスタリングの段階では,クラスタリングと表現学習のギャップを埋める真の負のサンプルをマイニングすることで,コンパクトクラスタを形成するKCC手法を提案する。
3つのベンチマークデータセットの大規模な実験により、我々の手法は最先端の手法よりも大幅に改善されていることが示された。
関連論文リスト
- Anchor Learning with Potential Cluster Constraints for Multi-view Clustering [11.536710289572552]
Anchor-based multi-view clustering (MVC) は、その効率性から注目されている。
本稿では,マルチビュークラスタリング (ALPC) 法に対する潜在的クラスタ制約付きアンカーラーニング法を提案する。
論文 参考訳(メタデータ) (2024-12-21T07:43:05Z) - Pseudo-Label Enhanced Prototypical Contrastive Learning for Uniformed Intent Discovery [27.18799732585361]
Pseudo-Label enhanced Prototypeal Contrastive Learning (PLPCL) モデルを提案する。
擬似ラベルを用いて、表現とクラスタリングのギャップを埋めるコントラスト学習のための潜在的正・負のサンプルを探索する。
提案手法は,新たな意図を発見するための2つの異なる設定において有効であることが証明されている。
論文 参考訳(メタデータ) (2024-10-26T16:22:45Z) - Discriminative Anchor Learning for Efficient Multi-view Clustering [59.11406089896875]
マルチビュークラスタリング(DALMC)のための識別的アンカー学習を提案する。
元のデータセットに基づいて、識別的なビュー固有の特徴表現を学習する。
これらの表現に基づいて異なるビューからアンカーを構築することで、共有アンカーグラフの品質が向上します。
論文 参考訳(メタデータ) (2024-09-25T13:11:17Z) - Deep Boosting Learning: A Brand-new Cooperative Approach for Image-Text Matching [53.05954114863596]
画像テキストマッチングのための新しいDeep Boosting Learning (DBL)アルゴリズムを提案する。
アンカーブランチは、まずデータプロパティに関する洞察を提供するために訓練される。
ターゲットブランチは、一致したサンプルと未一致のサンプルとの相対距離をさらに拡大するために、より適応的なマージン制約を同時に課される。
論文 参考訳(メタデータ) (2024-04-28T08:44:28Z) - Cluster-aware Contrastive Learning for Unsupervised Out-of-distribution
Detection [0.0]
教師なしアウト・オブ・ディストリビューション(OOD)検出は、ラベル情報なしでトレーニングデータの分布外に落下するサンプルを分離することを目的としている。
本稿では,インスタンスレベルの情報と意味レベルの情報の両方を考慮した,教師なしOOD検出のためのクラスタ対応コントラスト学習(CCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-06T07:21:03Z) - UniNL: Aligning Representation Learning with Scoring Function for OOD
Detection via Unified Neighborhood Learning [32.69035328161356]
我々は,OODの意図を検出するために,統一された近傍学習フレームワーク (UniNL) を提案する。
具体的には、表現学習のためのK-nearest neighbor contrastive learning(KNCL)を設計し、OOD検出のためのKNNベースのスコアリング機能を導入する。
論文 参考訳(メタデータ) (2022-10-19T17:06:34Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z) - Learning Robust Representation for Clustering through Locality
Preserving Variational Discriminative Network [16.259673823482665]
Variational Deep Embeddingは、さまざまなクラスタリングタスクで大きな成功を収めます。
VaDEは,1)入力ノイズに弱い,2)隣接するデータポイント間の局所性情報を無視する,という2つの問題に悩まされている。
強固な埋め込み判別器と局所構造制約によりvadeを改善する共同学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-25T02:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。