論文の概要: Generative Adversarial Networks for Annotated Data Augmentation in Data
Sparse NLU
- arxiv url: http://arxiv.org/abs/2012.05302v1
- Date: Wed, 9 Dec 2020 20:38:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 05:11:32.785738
- Title: Generative Adversarial Networks for Annotated Data Augmentation in Data
Sparse NLU
- Title(参考訳): データスパースNLUにおけるアノテーション付きデータ拡張のための生成逆ネットワーク
- Authors: Olga Golovneva and Charith Peris
- Abstract要約: データスパーシティは、自然言語理解におけるモデル開発に関連する重要な課題の1つです。
GAN (Sequence Generative Adversarial Network) を用いたトレーニングデータ拡張によるNLUモデルの性能向上について報告する。
本実験により, 逐次生成逆数ネットワークを用いて生成した合成データにより, 複数の指標間で大きな性能向上が得られた。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data sparsity is one of the key challenges associated with model development
in Natural Language Understanding (NLU) for conversational agents. The
challenge is made more complex by the demand for high quality annotated
utterances commonly required for supervised learning, usually resulting in
weeks of manual labor and high cost. In this paper, we present our results on
boosting NLU model performance through training data augmentation using a
sequential generative adversarial network (GAN). We explore data generation in
the context of two tasks, the bootstrapping of a new language and the handling
of low resource features. For both tasks we explore three sequential GAN
architectures, one with a token-level reward function, another with our own
implementation of a token-level Monte Carlo rollout reward, and a third with
sentence-level reward. We evaluate the performance of these feedback models
across several sampling methodologies and compare our results to upsampling the
original data to the same scale. We further improve the GAN model performance
through the transfer learning of the pretrained embeddings. Our experiments
reveal synthetic data generated using the sequential generative adversarial
network provides significant performance boosts across multiple metrics and can
be a major benefit to the NLU tasks.
- Abstract(参考訳): データ空間は自然言語理解(NLU)における対話エージェントのモデル開発に関連する重要な課題の1つである。
この課題は、教師付き学習に一般的に必要とされる高品質な注釈付き発話の要求によってより複雑にされ、通常、数週間の手動労働と高いコストをもたらす。
本稿では,GAN(Sequential Generative Adversarial Network)を用いたトレーニングデータ拡張によるNLUモデルの性能向上について述べる。
我々は、新しい言語のブートストラップと低リソース機能の処理という2つのタスクのコンテキストでデータ生成を探求する。
両方のタスクに対して,トークンレベルの報酬関数を備えたアーキテクチャ,トークンレベルのモンテカルロロールアウト報酬を独自に実装したアーキテクチャ,文レベルの報酬を持つアーキテクチャの3つについて検討する。
我々は,これらのフィードバックモデルの性能を複数のサンプリング手法で評価し,その結果を比較して,元のデータを同じスケールにアップサンプリングする。
我々は,事前学習した組込みの転送学習により,ganモデルの性能をさらに向上させる。
本実験により, 逐次生成逆数ネットワークを用いて生成した合成データにより, 複数の指標間で大きな性能向上が達成され, NLUタスクにとって大きなメリットとなることがわかった。
関連論文リスト
- CorrSynth -- A Correlated Sampling Method for Diverse Dataset Generation from LLMs [5.89889361990138]
大規模言語モデル(LLM)は、ゼロショットプロンプトと少数ショットプロンプトを使用して、多様なタスクにおいて顕著な性能を示した。
本研究では,下流の課題に対して,学生モデルが訓練されるような,多様性の高いデータセットを生成するという課題に取り組む。
復号時間誘導に基づくアプローチの経路を考慮し、相関したサンプリング戦略を用いて、入力プロンプトにより多様で忠実なデータを生成するCorr Synthを提案する。
論文 参考訳(メタデータ) (2024-11-13T12:09:23Z) - Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - An Active Learning Framework for Inclusive Generation by Large Language Models [32.16984263644299]
大規模言語モデル(LLM)は、多様なサブ集団を表すテキストを生成する。
本稿では,知識蒸留により強化されたクラスタリングに基づくアクティブラーニングフレームワークを提案する。
2つの新しいデータセットをモデルトレーニングと組み合わせて構築し、ベースラインモデルよりも2%-10%の性能向上を示した。
論文 参考訳(メタデータ) (2024-10-17T15:09:35Z) - Language Models are Graph Learners [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端のGNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Contrastive Transformer Learning with Proximity Data Generation for
Text-Based Person Search [60.626459715780605]
記述的なテキストクエリーを与えられたテキストベースの人物検索は、画像ギャラリーからベストマッチした人物を検索することを目的としている。
このようなクロスモーダル検索タスクは、重要なモダリティギャップ、きめ細かい相違、注釈付きデータの不十分さのため、かなり難しい。
本稿では,テキストに基づく人物検索のための2つのトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:26:49Z) - Regularization Through Simultaneous Learning: A Case Study on Plant
Classification [0.0]
本稿では,トランスファーラーニングとマルチタスクラーニングの原則に基づく正規化アプローチである同時学習を紹介する。
我々は、ターゲットデータセットであるUFOP-HVDの補助データセットを活用し、カスタマイズされた損失関数でガイドされた同時分類を容易にする。
興味深いことに,本手法は正規化のないモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-22T19:44:57Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - DQI: Measuring Data Quality in NLP [22.54066527822898]
データ品質指標(DQI)の一般的な式を導入し、データセット作成者が望ましくないバイアスのないデータセットを作成するのを支援する。
SNLIデータセットを用いてトレーニングしたモデルが,分散タスクの外部に一般化できることが示される。
論文 参考訳(メタデータ) (2020-05-02T12:34:17Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。