論文の概要: Fast Cross-domain Data Augmentation through Neural Sentence Editing
- arxiv url: http://arxiv.org/abs/2003.10254v1
- Date: Mon, 23 Mar 2020 13:05:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 00:07:36.228156
- Title: Fast Cross-domain Data Augmentation through Neural Sentence Editing
- Title(参考訳): ニューラルセンス編集による高速クロスドメインデータ拡張
- Authors: Guillaume Raille, Sandra Djambazovska, Claudiu Musat
- Abstract要約: 自然言語では、文編集は、オリジナルのものへの小さなが意味のある変更に依存する、解決策を提供する。
Edit-transformer は Transformer ベースの文エディタで,最先端技術よりもはるかに高速で,ドメイン間で動作する。
このようなドメイン間性能の優位性から, Edit-transformerは, 下流タスクにおいて有意義なパフォーマンス向上をもたらすことを示す。
- 参考スコア(独自算出の注目度): 6.549410499651615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data augmentation promises to alleviate data scarcity. This is most important
in cases where the initial data is in short supply. This is, for existing
methods, also where augmenting is the most difficult, as learning the full data
distribution is impossible. For natural language, sentence editing offers a
solution - relying on small but meaningful changes to the original ones.
Learning which changes are meaningful also requires large amounts of training
data. We thus aim to learn this in a source domain where data is abundant and
apply it in a different, target domain, where data is scarce - cross-domain
augmentation.
We create the Edit-transformer, a Transformer-based sentence editor that is
significantly faster than the state of the art and also works cross-domain. We
argue that, due to its structure, the Edit-transformer is better suited for
cross-domain environments than its edit-based predecessors. We show this
performance gap on the Yelp-Wikipedia domain pairs. Finally, we show that due
to this cross-domain performance advantage, the Edit-transformer leads to
meaningful performance gains in several downstream tasks.
- Abstract(参考訳): データ拡張はデータの不足を軽減することを約束する。
これは、初期データが不足している場合に最も重要なことです。
これは、既存のメソッドにおいても、完全なデータ分散を学ぶことは不可能であるため、拡張が最も難しい。
自然言語の場合、文編集は、元の言語に対する小さいが意味のある変更に依存するソリューションを提供する。
変化が意味のある学習も、大量のトレーニングデータを必要とする。
したがって、データを豊富に含むソースドメインでこれを学習し、データを不足している別のターゲットドメイン、すなわちクロスドメイン拡張に適用することを目標としています。
Edit-transformer は Transformer ベースの文エディタで,最先端技術よりもはるかに高速で,ドメイン間で動作する。
我々は、その構造上、Edit-transformerは編集ベースの前バージョンよりもクロスドメイン環境に適していると論じている。
この性能差をYelp-Wikipediaドメインペアに示す。
最後に、ドメイン間のパフォーマンス上の優位性から、Edit-transformerは複数の下流タスクにおいて有意義なパフォーマンス向上をもたらすことを示す。
関連論文リスト
- AdvST: Revisiting Data Augmentations for Single Domain Generalization [39.55487584183931]
単一ドメインの一般化は、単一のソースドメインのデータを使用して、未知のターゲットドメインシフトに対して堅牢なモデルをトレーニングすることを目的としている。
セマンティクス変換としての学習可能なパラメータによる標準的なデータ拡張は、サンプルの特定のセマンティクスを操作できる。
本稿では,セマンティックス変換を用いたAdversarial Learning(AdvST)を提案する。
論文 参考訳(メタデータ) (2023-12-20T02:29:31Z) - Domain Generalization by Rejecting Extreme Augmentations [13.114457707388283]
ドメイン外およびドメインの一般化設定では、データ拡張が顕著で堅牢なパフォーマンス向上をもたらすことを示す。
i)標準データ拡張変換の均一サンプリング,(ii)ドメイン外での作業において期待される高いデータ分散を考慮した強度変換,(iii)トレーニングを損なうような極端な変換を拒否する新たな報酬関数を考案する,という簡単なトレーニング手順を提案する。
論文 参考訳(メタデータ) (2023-10-10T14:46:22Z) - NeuroCounterfactuals: Beyond Minimal-Edit Counterfactuals for Richer
Data Augmentation [55.17069935305069]
本稿では,緩やかな反ファクトとして設計されたNeuroCounterfactualsを紹介する。
我々の新しい生成的アプローチは、言語モデル適応による感情制御による制約付き復号化の利点を橋渡しする。
論文 参考訳(メタデータ) (2022-10-22T06:29:21Z) - Domain Adaptation for Time-Series Classification to Mitigate Covariate
Shift [3.071136270246468]
本稿では,2つのステップに基づいた新しいドメイン適応手法を提案する。
まず、いくつかのサンプルから、ソースからターゲットドメインへの最適なクラス依存変換を探索する。
次に、埋め込み類似性技術を用いて、推論時に対応する変換を選択する。
論文 参考訳(メタデータ) (2022-04-07T10:27:14Z) - TridentAdapt: Learning Domain-invariance via Source-Target Confrontation
and Self-induced Cross-domain Augmentation [0.0]
主な課題は、仮想データから恩恵を受けるために、入力のドメインに依存しない表現を学ぶことである。
本稿では,対立ソースとターゲット制約を同時に満たすために,共有機能エンコーダを強制するトリデント型アーキテクチャを提案する。
また、フォワードパス中に自己誘導型クロスドメインデータ拡張を可能にする新しいトレーニングパイプラインも導入する。
論文 参考訳(メタデータ) (2021-11-30T11:25:46Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Domain adaptation for person re-identification on new unlabeled data
using AlignedReID++ [0.0]
ドメイン適応は、教師なし学習戦略を用いて生成された擬似ラベルを用いて行われる。
この結果から,対象領域に適用した場合のCNNの性能は,ドメイン適応技術により向上することが示唆された。
論文 参考訳(メタデータ) (2021-06-29T19:58:04Z) - Revisiting Mahalanobis Distance for Transformer-Based Out-of-Domain
Detection [60.88952532574564]
本稿では,ドメイン外インテント検出手法を徹底的に比較する。
意図分類のための3つの標準データセット上で,複数のコンテキストエンコーダとメソッドを効率良く評価する。
本研究の主目的は,超微調整トランスフォーマーを用いたドメイン内データエンコーダが優れた結果をもたらすことである。
論文 参考訳(メタデータ) (2021-01-11T09:10:58Z) - Addressing Zero-Resource Domains Using Document-Level Context in Neural
Machine Translation [80.40677540516616]
ドメイン内の並列データが利用できない場合、文書レベルのコンテキストへのアクセスにより、ドメインの一般性をよりよくキャプチャできることを示す。
文書レベルのトランスフォーマーモデルとして,大きなコンテキストサイズを利用できる2つのモデルを提案する。
論文 参考訳(メタデータ) (2020-04-30T16:28:19Z) - Unsupervised Intra-domain Adaptation for Semantic Segmentation through
Self-Supervision [73.76277367528657]
畳み込みニューラルネットワークに基づくアプローチは、セマンティックセグメンテーションにおいて顕著な進歩を遂げた。
この制限に対処するために、グラフィックエンジンから生成された注釈付きデータを使用してセグメンテーションモデルをトレーニングする。
ドメイン間およびドメイン間ギャップを最小化する2段階の自己教師付きドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2020-04-16T15:24:11Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。