論文の概要: A Single Example Can Improve Zero-Shot Data Generation
- arxiv url: http://arxiv.org/abs/2108.06991v1
- Date: Mon, 16 Aug 2021 09:43:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 20:58:42.619770
- Title: A Single Example Can Improve Zero-Shot Data Generation
- Title(参考訳): ゼロショットデータ生成を改善する一例
- Authors: Pavel Burnyshev, Valentin Malykh, Andrey Bout, Ekaterina Artemova,
Irina Piontkovskaya
- Abstract要約: 意図分類のサブタスクは、実験と評価のために広範囲で柔軟なデータセットを必要とする。
本稿では,データセットの収集にテキスト生成手法を提案する。
タスク指向発話を生成するための2つのアプローチについて検討する。
- 参考スコア(独自算出の注目度): 7.237231992155901
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sub-tasks of intent classification, such as robustness to distribution shift,
adaptation to specific user groups and personalization, out-of-domain
detection, require extensive and flexible datasets for experiments and
evaluation. As collecting such datasets is time- and labor-consuming, we
propose to use text generation methods to gather datasets. The generator should
be trained to generate utterances that belong to the given intent. We explore
two approaches to generating task-oriented utterances. In the zero-shot
approach, the model is trained to generate utterances from seen intents and is
further used to generate utterances for intents unseen during training. In the
one-shot approach, the model is presented with a single utterance from a test
intent. We perform a thorough automatic, and human evaluation of the dataset
generated utilizing two proposed approaches. Our results reveal that the
attributes of the generated data are close to original test sets, collected via
crowd-sourcing.
- Abstract(参考訳): 分散シフトに対する堅牢性、特定のユーザグループへの適応、パーソナライゼーション、ドメイン外検出といった意図分類のサブタスクは、実験と評価のために広範囲で柔軟なデータセットを必要とする。
このようなデータセットの収集には時間と労力がかかるため,データセットの収集にテキスト生成手法を提案する。
ジェネレータは、与えられた意図に属する発話を生成するように訓練されるべきである。
タスク指向発話を生成するための2つのアプローチを検討する。
ゼロショットアプローチでは、モデルは見た意図から発話を生成するように訓練され、さらにトレーニング中に意図を認識できない発話を生成するために使用される。
ワンショットのアプローチでは、モデルはテストの意図から1つの発話で示されます。
提案する2つの手法を用いて,データセットの自動生成と人間による評価を行う。
その結果,生成したデータの属性は,クラウドソーシングによって収集された元のテストセットに近いことがわかった。
関連論文リスト
- Personalized Federated Learning via Active Sampling [50.456464838807115]
本稿では,類似した(あるいは関連する)データジェネレータを逐次同定する手法を提案する。
本手法は,局所的なデータセットを用いて勾配ステップの効果を評価することにより,データ生成の関連性を評価する。
データ生成器が提供する局所的データセットを用いて仮説を更新するために、勾配ステップの適切な一般化により、この手法を非パラメトリックモデルに拡張する。
論文 参考訳(メタデータ) (2024-09-03T17:12:21Z) - Generating Survival Interpretable Trajectories and Data [2.4861619769660637]
本稿では,合成データセットと実データセットの数値実験を用いて,提案モデルの有効性と特性を実証する。
提案したモデルを実装するアルゴリズムのコードが公開されている。
論文 参考訳(メタデータ) (2024-02-19T18:02:10Z) - Dual Student Networks for Data-Free Model Stealing [79.67498803845059]
主な課題は、パラメータにアクセスせずにターゲットモデルの勾配を推定し、多様なトレーニングサンプルを生成することである。
そこで本研究では,2人の学生が左右対称に学習し,学生が反対するサンプルを生成するための基準を提案する。
我々の新しい最適化フレームワークは、目標モデルのより正確な勾配推定と、ベンチマーク分類データセットの精度向上を提供する。
論文 参考訳(メタデータ) (2023-09-18T18:11:31Z) - Self-augmented Data Selection for Few-shot Dialogue Generation [18.794770678708637]
我々は,MR-to-Text生成問題に対処するために,自己学習フレームワークを採用する。
我々は,我々の生成モデルが最も不確実なデータを選択するための新しいデータ選択戦略を提案する。
論文 参考訳(メタデータ) (2022-05-19T16:25:50Z) - A Generative Language Model for Few-shot Aspect-Based Sentiment Analysis [90.24921443175514]
我々は、アスペクト項、カテゴリを抽出し、対応する極性を予測するアスペクトベースの感情分析に焦点を当てる。
本稿では,一方向の注意を伴う生成言語モデルを用いて,抽出タスクと予測タスクをシーケンス生成タスクに再構成することを提案する。
提案手法は,従来の最先端(BERTをベースとした)の性能を,数ショットとフルショットの設定において,大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-04-11T18:31:53Z) - Generative Conversational Networks [67.13144697969501]
本稿では,対話エージェントが独自のラベル付き学習データを生成することを学習する,生成会話ネットワーク(Generative Conversational Networks)というフレームワークを提案する。
そこで本研究では,シードデータから学習したベースラインモデルに対して,意図検出が平均35%,スロットタグが平均21%向上したことを示す。
論文 参考訳(メタデータ) (2021-06-15T23:19:37Z) - One-shot Learning with Absolute Generalization [23.77607345586489]
我々は、どのようなデータセットがワンショット学習をサポートするかを説明するために、一連の定義を提案する。
これらの定義に基づき、絶対一般化可能な分類器を構築する方法を提案した。
実験により,提案手法は単発学習データセットと人工データセットのベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-05-28T02:52:52Z) - Discriminative, Generative and Self-Supervised Approaches for
Target-Agnostic Learning [8.666667951130892]
生成的および自己教師型学習モデルは、そのタスクでうまく機能することが示されている。
擬似相似理論の導出した定理は、結合分布モデルの推定に関係があることも示している。
論文 参考訳(メタデータ) (2020-11-12T15:03:40Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Summary-Source Proposition-level Alignment: Task, Datasets and
Supervised Baseline [94.0601799665342]
資料の参照要約における文のアライメントは,補助的な要約作業として有用であった。
本稿では,2つの重要な新機能を導入しながら,要約ソースアライメントを明示的なタスクとして確立することを提案する。
我々は提案レベルのアライメントのための新しいトレーニングデータセットを作成し、利用可能な要約評価データから自動的に抽出する。
教師なしアプローチよりも優れたアライメント品質を示す教師付き命題アライメントベースラインモデルを提案する。
論文 参考訳(メタデータ) (2020-09-01T17:27:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。