論文の概要: Sibylvariant Transformations for Robust Text Classification
- arxiv url: http://arxiv.org/abs/2205.05137v1
- Date: Tue, 10 May 2022 19:38:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-14 07:52:16.138327
- Title: Sibylvariant Transformations for Robust Text Classification
- Title(参考訳): ロバストテキスト分類のためのSibylvariant Transformations
- Authors: Fabrice Harel-Canada, Muhammad Ali Gulzar, Nanyun Peng, Miryung Kim
- Abstract要約: 本稿では,ラベル保存制約を緩和するより広範な変換の集合を記述するために,シビル分散(SIB)の概念を提案する。
私たちは2種類のSIBを含むすべてのデータ変換を組織化する統一されたフレームワークを提供しています。
SIBは、最も混乱したクラスペアに対して新しい入力混合物を生成する、ユニークな適応トレーニングの形式を可能にする。
- 参考スコア(独自算出の注目度): 41.85750707462483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The vast majority of text transformation techniques in NLP are inherently
limited in their ability to expand input space coverage due to an implicit
constraint to preserve the original class label. In this work, we propose the
notion of sibylvariance (SIB) to describe the broader set of transforms that
relax the label-preserving constraint, knowably vary the expected class, and
lead to significantly more diverse input distributions. We offer a unified
framework to organize all data transformations, including two types of SIB: (1)
Transmutations convert one discrete kind into another, (2) Mixture Mutations
blend two or more classes together. To explore the role of sibylvariance within
NLP, we implemented 41 text transformations, including several novel techniques
like Concept2Sentence and SentMix. Sibylvariance also enables a unique form of
adaptive training that generates new input mixtures for the most confused class
pairs, challenging the learner to differentiate with greater nuance. Our
experiments on six benchmark datasets strongly support the efficacy of
sibylvariance for generalization performance, defect detection, and adversarial
robustness.
- Abstract(参考訳): NLPのテキスト変換技術の大部分は、本来のクラスラベルを保持するために暗黙の制約があるため、入力空間を拡張できる能力に本質的に制限されている。
本研究では,ラベル保存制約を緩和し,期待するクラスを故意に変更し,より多様な入力分布へと導く幅広い変換の集合を記述するために,sibylvariance (sib) の概念を提案する。
我々は,すべてのデータ変換を整理するための統一フレームワークを提供する。(1) 1つの離散種を別の種に変換する,(2) 2つ以上のクラスを混合する混合変異である。
NLPにおけるシビル分散の役割を探るため,Concept2SentenceやSentMixなど,41のテキスト変換を実装した。
Sibylvarianceはまた、最も混乱したクラスペアに対して新しい入力混合物を生成する独自の適応トレーニングを可能にし、学習者がより大きなニュアンスで区別することを挑戦する。
6つのベンチマークデータセットを用いた実験は, 一般化性能, 欠陥検出, 対向ロバスト性を強く支援する。
関連論文リスト
- Proxy Methods for Domain Adaptation [78.03254010884783]
プロキシ変数は、遅延変数を明示的にリカバリしたりモデル化したりすることなく、分散シフトへの適応を可能にする。
両設定の複雑な分散シフトに適応する2段階のカーネル推定手法を開発した。
論文 参考訳(メタデータ) (2024-03-12T09:32:41Z) - Algorithmic Fairness Generalization under Covariate and Dependence Shifts Simultaneously [28.24666589680547]
公平かつ不変な分類器の学習を目的とした,単純かつ効果的な手法を提案する。
モデルを用いて様々な合成データドメインを拡張することにより、ソースドメインの公平かつ不変な分類器を学習する。
この分類器は未知の対象領域に一般化することができ、モデル予測と公平性の懸念の両方を維持できる。
論文 参考訳(メタデータ) (2023-11-23T05:52:00Z) - DUET: 2D Structured and Approximately Equivariant Representations [11.403153712153253]
MSSL(Multiview Self-Supervised Learning)は、入力変換の集合に関する学習不変性に基づいている。
本稿では,行列構造に整理された2次元表現である2DstrUcturedおよびEquivarianT表現(Coined DUET)を提案し,入力データに作用する変換について同変する。
論文 参考訳(メタデータ) (2023-06-28T09:40:03Z) - Self-Supervised Learning for Group Equivariant Neural Networks [75.62232699377877]
群同変ニューラルネットワーク(英: Group equivariant Neural Network)は、入力の変換で通勤する構造に制限されたモデルである。
自己教師型タスクには、同変プリテキストラベルと異変コントラスト損失という2つの概念を提案する。
標準画像認識ベンチマークの実験では、同変ニューラルネットワークが提案された自己教師型タスクを利用することを示した。
論文 参考訳(メタデータ) (2023-03-08T08:11:26Z) - Recurrence Boosts Diversity! Revisiting Recurrent Latent Variable in
Transformer-Based Variational AutoEncoder for Diverse Text Generation [85.5379146125199]
変分自動エンコーダ(VAE)はテキスト生成において広く採用されている。
本稿ではトランスフォーマーをベースとしたリカレントVAE構造であるTRACEを提案する。
論文 参考訳(メタデータ) (2022-10-22T10:25:35Z) - Equivariant Contrastive Learning [20.369942206674576]
最先端の自己教師型学習(SSL)では、事前学習は意味的に良い表現を生成する。
私たちは人気のあるSSLメソッドを、Equivariant Self-Supervised Learning (E-SSL)という名前のより一般的なフレームワークに拡張します。
いくつかのコンピュータビジョンベンチマークにおいて,E-SSLの有効性を実証的に示す。
論文 参考訳(メタデータ) (2021-10-28T17:21:33Z) - HSVA: Hierarchical Semantic-Visual Adaptation for Zero-Shot Learning [74.76431541169342]
ゼロショット学習(ZSL)は、目に見えないクラス認識の問題に取り組み、目に見えないクラスから目に見えないクラスに意味的な知識を移す。
本稿では,意味領域と視覚領域を協調させる新しい階層型意味視覚適応(HSVA)フレームワークを提案する。
4つのベンチマークデータセットの実験では、HSVAは従来のZSLと一般的なZSLの両方で優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-30T14:27:50Z) - Challenging the Semi-Supervised VAE Framework for Text Classification [1.8907108368038217]
SSVAE(Semi-Supervised Variational Autoencoders)は、データ効率向上のためのモデルである。
テキスト分類作業において,SSVAEを単純化する。
実験では、同等の分類スコアを維持しながら、26%のスピードアップを示した。
論文 参考訳(メタデータ) (2021-09-27T11:46:32Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。