論文の概要: Intent-calibrated Self-training for Answer Selection in Open-domain
Dialogues
- arxiv url: http://arxiv.org/abs/2307.06703v1
- Date: Thu, 13 Jul 2023 12:02:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 14:47:06.588434
- Title: Intent-calibrated Self-training for Answer Selection in Open-domain
Dialogues
- Title(参考訳): オープンドメイン対話における回答選択のためのインテント校正自己学習
- Authors: Wentao Deng, Jiahuan Pei, Zhaochun Ren, Zhumin Chen, Pengjie Ren
- Abstract要約: 自己学習パラダイムで回答ラベルを校正するために,予測意図ラベルを導入する。
具体的には,疑似回答ラベルの品質向上を目的とした,意図校正型自己学習(ICAST)を提案する。
- 参考スコア(独自算出の注目度): 35.81517369907452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Answer selection in open-domain dialogues aims to select an accurate answer
from candidates. Recent success of answer selection models hinges on training
with large amounts of labeled data. However, collecting large-scale labeled
data is labor-intensive and time-consuming. In this paper, we introduce the
predicted intent labels to calibrate answer labels in a self-training paradigm.
Specifically, we propose the intent-calibrated self-training (ICAST) to improve
the quality of pseudo answer labels through the intent-calibrated answer
selection paradigm, in which we employ pseudo intent labels to help improve
pseudo answer labels. We carry out extensive experiments on two benchmark
datasets with open-domain dialogues. The experimental results show that ICAST
outperforms baselines consistently with 1%, 5% and 10% labeled data.
Specifically, it improves 2.06% and 1.00% of F1 score on the two datasets,
compared with the strongest baseline with only 5% labeled data.
- Abstract(参考訳): オープンドメイン対話における回答選択は、候補から正確な回答を選択することを目的としている。
最近の回答選択モデルの成功は、大量のラベル付きデータのトレーニングにかかっている。
しかし、大規模なラベル付きデータの収集は労働集約的で時間を要する。
本稿では,自己学習パラダイムで回答ラベルを校正するために,予測意図ラベルを導入する。
具体的には, 意図的自己学習(icast)により, 意図的回答選択パラダイムを通じ, 疑似回答ラベルの品質を向上し, 疑似回答ラベルを改善するための意図的自己学習(icast)を提案する。
オープンドメイン対話を用いた2つのベンチマークデータセットについて広範な実験を行った。
実験の結果, ICASTは1%, 5%, 10%のラベル付きデータで一貫した性能を示した。
具体的には、2つのデータセットのf1スコアの2.06%と1.00%を改善し、5%のラベル付きデータを持つ最も強いベースラインと比較する。
関連論文リスト
- You can't handle the (dirty) truth: Data-centric insights improve pseudo-labeling [60.27812493442062]
擬似ラベル法を改善するためにラベル付きデータ品質を調査することが重要であることを示す。
具体的には、擬似ラベルの拡張のために、DIPSと呼ばれる新しいデータキャラクタリゼーションと選択フレームワークを導入する。
本研究では,多種多様な実世界のデータセットを対象とした擬似ラベル手法に対するDIPSの適用性と影響を実証する。
論文 参考訳(メタデータ) (2024-06-19T17:58:40Z) - Impact of Strategic Sampling and Supervision Policies on Semi-supervised Learning [23.4909421082857]
半教師付き表現学習フレームワークでは、ラベル付きデータの数が極めて少ない場合には、これらのサンプルの品質と代表性がますます重要になる。
半教師付き学習に関する既存の文献は、ラベル付けのための限られた数のデータポイントをランダムにサンプリングする。
これらのラベル付きサンプルは、トレーニングプロセス全体を通して、未ラベルのデータとともに使用される。
論文 参考訳(メタデータ) (2022-11-27T18:29:54Z) - A new data augmentation method for intent classification enhancement and
its application on spoken conversation datasets [23.495743195811375]
本稿では,Nearest Neighbors Scores Improvement (NNSI)アルゴリズムを提案する。
NNSIは、高度に曖昧なサンプルを自動的に選択し、それらを高精度にラベルすることで、手動ラベリングの必要性を減らす。
2つの大規模実生活音声対話システムにおけるNNSIの使用を実演した。
論文 参考訳(メタデータ) (2022-02-21T11:36:19Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - Zero-Shot Dialogue Disentanglement by Self-Supervised Entangled Response
Selection [79.37200787463917]
対話の切り離しは、スレッドへの長大かつ多人数の対話において、発話をグループ化することを目的としている。
これは談話分析や対話応答選択などの下流アプリケーションに有用である。
我々はまず,atextbfzero-shotダイアログ・ディアンタングメント・ソリューションを提案する。
論文 参考訳(メタデータ) (2021-10-25T05:15:01Z) - Unsupervised Selective Labeling for More Effective Semi-Supervised
Learning [46.414510522978425]
教師なしの選択的なラベル付けは、与えられたラベル付きデータの最先端のアクティブラーニングよりもSSLメソッドを一貫して改善する。
私たちの仕事は、実用的で効率的なSSLの新しい標準を設定します。
論文 参考訳(メタデータ) (2021-10-06T18:25:50Z) - Weakly Supervised Pseudo-Label assisted Learning for ALS Point Cloud
Semantic Segmentation [1.4620086904601473]
競合ポイントクラウドの結果は通常、大量のラベル付きデータに依存します。
本研究では,基礎的事実を限定した正確な結果を得るための擬似ラベル方式を提案する。
論文 参考訳(メタデータ) (2021-05-05T08:07:21Z) - Semi-supervised learning by selective training with pseudo labels via
confidence estimation [0.0]
疑似ラベルを用いた選択的トレーニングを採用した,新しい半教師付き学習(SSL)手法を提案する。
本手法では, 疑似ラベルを生成し, その信頼度を推定し, 疑似ラベルの正しさを推定する。
また,MixConfと呼ばれる新しいデータ拡張手法を提案し,トレーニングデータの数が少なくても信頼性校正モデルが得られるようにした。
論文 参考訳(メタデータ) (2021-03-15T08:00:33Z) - A Study on the Autoregressive and non-Autoregressive Multi-label
Learning [77.11075863067131]
本稿では,ラベルとラベルの依存関係を共同で抽出する自己アテンションに基づく変分エンコーダモデルを提案する。
したがって、ラベルラベルとラベル機能の両方の依存関係を保ちながら、すべてのラベルを並列に予測することができる。
論文 参考訳(メタデータ) (2020-12-03T05:41:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。