論文の概要: Pseudo Labeling and Negative Feedback Learning for Large-scale
Multi-label Domain Classification
- arxiv url: http://arxiv.org/abs/2003.03728v1
- Date: Sun, 8 Mar 2020 06:00:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 14:15:01.315361
- Title: Pseudo Labeling and Negative Feedback Learning for Large-scale
Multi-label Domain Classification
- Title(参考訳): 大規模マルチラベルドメイン分類のための擬似ラベリングと負フィードバック学習
- Authors: Joo-Kyung Kim and Young-Bum Kim
- Abstract要約: 大規模ドメイン分類では、発話は重複する複数のドメインで処理できる。
本稿では,訓練発話毎に1つの基礎構造ドメインが与えられた場合,最も信頼度の高い領域をトレーニングのための追加の擬似ラベルとして常に予測する。
誤った擬似ラベルによる予測誤差を低減するために、負のシステム応答による発話を利用して、誤った予測領域の信頼度を下げる。
- 参考スコア(独自算出の注目度): 18.18754040189615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In large-scale domain classification, an utterance can be handled by multiple
domains with overlapped capabilities. However, only a limited number of
ground-truth domains are provided for each training utterance in practice while
knowing as many as correct target labels is helpful for improving the model
performance. In this paper, given one ground-truth domain for each training
utterance, we regard domains consistently predicted with the highest
confidences as additional pseudo labels for the training. In order to reduce
prediction errors due to incorrect pseudo labels, we leverage utterances with
negative system responses to decrease the confidences of the incorrectly
predicted domains. Evaluating on user utterances from an intelligent
conversational system, we show that the proposed approach significantly
improves the performance of domain classification with hypothesis reranking.
- Abstract(参考訳): 大規模ドメイン分類では、発話は重複する能力を持つ複数のドメインによって処理できる。
しかし、実際の訓練発話毎に限られた数の地対地ドメインが提供され、正確なターゲットラベルを最大で知れば、モデル性能の向上に寄与する。
本稿では,訓練発話毎に1つの基底領域を与えられた場合,最も信頼度の高い領域を訓練用擬似ラベルとして一貫して予測する。
誤った擬似ラベルによる予測誤差を低減するために,不正確なシステム応答を持つ発話を利用して,不正確な予測領域の信頼度を低減する。
知的会話システムからユーザ発話を評価することで,提案手法は仮説の再評価によるドメイン分類の性能を大幅に向上させることを示す。
関連論文リスト
- Bi-discriminator Domain Adversarial Neural Networks with Class-Level
Gradient Alignment [87.8301166955305]
そこで本研究では,クラスレベルのアライメントアライメントを有するバイディミネータドメイン対向ニューラルネットワークを提案する。
BACGは、領域分布の整合性を改善するために勾配信号と二階確率推定を利用する。
さらに、対照的な学習にインスパイアされ、トレーニングプロセスを大幅に短縮できるメモリバンクベースの変種であるFast-BACGを開発した。
論文 参考訳(メタデータ) (2023-10-21T09:53:17Z) - Class-Distribution-Aware Pseudo Labeling for Semi-Supervised Multi-Label
Learning [97.88458953075205]
Pseudo-labelingは、ラベルなしデータを利用するための人気で効果的なアプローチとして登場した。
本稿では,クラスアウェアの擬似ラベル処理を行うCAP(Class-Aware Pseudo-Labeling)という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-04T12:52:18Z) - Forget Less, Count Better: A Domain-Incremental Self-Distillation
Learning Benchmark for Lifelong Crowd Counting [51.44987756859706]
オフザシェルフ法は複数のドメインを扱うのにいくつかの欠点がある。
生涯クラウドカウンティングは、壊滅的な忘れを緩和し、一般化能力を改善することを目的としている。
論文 参考訳(メタデータ) (2022-05-06T15:37:56Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Selective Pseudo-Labeling with Reinforcement Learning for
Semi-Supervised Domain Adaptation [116.48885692054724]
半教師付きドメイン適応のための強化学習に基づく選択擬似ラベル法を提案する。
高精度かつ代表的な擬似ラベルインスタンスを選択するための深層Q-ラーニングモデルを開発する。
提案手法は, SSDAのベンチマークデータセットを用いて評価し, 全ての比較手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-07T03:37:38Z) - A Label Proportions Estimation Technique for Adversarial Domain
Adaptation in Text Classification [31.788796579355274]
本稿では,ラベル比例推定(DAN-LPE)フレームワークを用いたドメイン対向ネットワークを提案する。
DAN−LPEは、同時にドメイン敵ネットを訓練し、ソースドメインとターゲットドメインの予測との混同によるラベル比の推定を行う。
実験により, DAN-LPEは, 対象ラベル分布を適切に推定し, ラベルシフトを低減し, 分類性能を向上させる。
論文 参考訳(メタデータ) (2020-03-16T21:16:00Z) - Rectifying Pseudo Label Learning via Uncertainty Estimation for Domain
Adaptive Semantic Segmentation [49.295165476818866]
本稿では、意味的セグメンテーションの文脈において、ソースドメインからターゲットドメインへの知識伝達の教師なし領域適応に焦点を当てる。
既存のアプローチでは、通常、擬似ラベルを未ラベルのターゲットドメインデータを完全に活用するための基礎的真理とみなす。
本稿では,擬似ラベル学習の修正のために,学習中の予測の不確かさを明示的に推定することを提案する。
論文 参考訳(メタデータ) (2020-03-08T12:37:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。