論文の概要: Protoformer: Embedding Prototypes for Transformers
- arxiv url: http://arxiv.org/abs/2206.12710v1
- Date: Sat, 25 Jun 2022 18:51:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-03 03:08:01.076938
- Title: Protoformer: Embedding Prototypes for Transformers
- Title(参考訳): Protoformer: Transformerのプロトタイプを埋め込む
- Authors: Ashkan Farhangi, Ning Sui, Nan Hua, Haiyan Bai, Arthur Huang, Zhishan
Guo
- Abstract要約: 本稿では,トランスフォーマーのための新しい自己学習フレームワークであるProtoformerを提案する。
Protoformerはサンプルを埋め込むための選択機構を備えており、異常なプロトタイプを効率的に抽出し利用することができる。
その結果、Protoformerは様々な経験的設定で現在のトランスフォーマーを改善できることがわかった。
- 参考スコア(独自算出の注目度): 3.949162585514282
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transformers have been widely applied in text classification. Unfortunately,
real-world data contain anomalies and noisy labels that cause challenges for
state-of-art Transformers. This paper proposes Protoformer, a novel
self-learning framework for Transformers that can leverage problematic samples
for text classification. Protoformer features a selection mechanism for
embedding samples that allows us to efficiently extract and utilize anomalies
prototypes and difficult class prototypes. We demonstrated such capabilities on
datasets with diverse textual structures (e.g., Twitter, IMDB, ArXiv). We also
applied the framework to several models. The results indicate that Protoformer
can improve current Transformers in various empirical settings.
- Abstract(参考訳): トランスフォーマーはテキスト分類に広く応用されている。
残念ながら、現実世界のデータには、最先端のトランスフォーマーに問題を引き起こす異常やノイズのあるラベルが含まれている。
本稿では,テキスト分類に問題のあるサンプルを活用できるトランスフォーマーのための新しい自己学習フレームワークprotoformerを提案する。
Protoformerはサンプルを埋め込むための選択機構を備えており、異常なプロトタイプや難しいクラスプロトタイプを効率的に抽出し利用することができる。
このような機能をさまざまなテキスト構造(例えばtwitter、imdb、arxiv)のデータセットで実証した。
フレームワークをいくつかのモデルにも適用しました。
その結果、protoformerは様々な経験的設定で現在のトランスフォーマーを改善できることがわかった。
関連論文リスト
- Learning on Transformers is Provable Low-Rank and Sparse: A One-layer Analysis [63.66763657191476]
低ランク計算としての効率的な数値学習と推論アルゴリズムはトランスフォーマーに基づく適応学習に優れた性能を持つことを示す。
我々は、等級モデルが適応性を改善しながら一般化にどのように影響するかを分析する。
適切なマグニチュードベースのテストは,テストパフォーマンスに多少依存している,と結論付けています。
論文 参考訳(メタデータ) (2024-06-24T23:00:58Z) - Emotion Detection with Transformers: A Comparative Study [0.0]
我々は、異なる変圧器の変種を用いて、感情データセットを用いて、事前訓練されたトランスフォーマーモデルを訓練し、評価する。
解析の結果,句読解や停止語といった一般的な手法は,モデルの性能を損なうことが判明した。
論文 参考訳(メタデータ) (2024-03-18T23:22:50Z) - Transformer-based approaches to Sentiment Detection [55.41644538483948]
テキスト分類のための4種類の最先端変圧器モデルの性能について検討した。
RoBERTa変換モデルは82.6%のスコアでテストデータセット上で最高のパフォーマンスを示し、品質予測に非常に推奨されている。
論文 参考訳(メタデータ) (2023-03-13T17:12:03Z) - Momentum Calibration for Text Generation [86.58432361938806]
テキスト生成のためのMoCa(bf Momentum bf Calibration)を提案する。
MoCaは、ビームサーチを備えた運動量移動平均発生器を用いて、ゆっくりと進化する(しかし一貫した)サンプルを動的に生成するオンライン手法である。
論文 参考訳(メタデータ) (2022-12-08T13:12:10Z) - Mixed-effects transformers for hierarchical adaptation [1.9105318290910576]
本稿では,階層的に構造化されたプレフィックスを学習するための新しいアプローチであるMulti-Efects Transformer(MET)を紹介する。
一般的な混合効果モデルのクラスがトランスフォーマーベースのアーキテクチャにどのように拡張されるかを示す。
論文 参考訳(メタデータ) (2022-05-03T19:34:15Z) - Revisiting Transformer-based Models for Long Document Classification [31.60414185940218]
実世界のアプリケーションでは、マルチページのマルチパラグラフ文書が一般的であり、バニラトランスフォーマーベースのモデルでは効率的にエンコードできない。
本稿では,変圧器の計算オーバーヘッドを軽減するために,トランスフォーマーを用いた長期文書分類(TrLDC)手法を比較した。
我々は、より長いテキストを処理できることの明確な利点を観察し、その結果に基づいて、長い文書分類タスクにTransformerベースのモデルを適用する実践的なアドバイスを導き出す。
論文 参考訳(メタデータ) (2022-04-14T00:44:36Z) - Experiments with adversarial attacks on text genres [0.0]
BERTやXLM-RoBERTaのような事前学習されたトランスフォーマーに基づくニューラルモデルは、多くのNLPタスクにおいてSOTA結果を示す。
そこで本研究では,最も重要な単語のいくつかを類似した単語に置き換えることができる埋め込み型アルゴリズムが,モデル予測にかなりの割合で影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2021-07-05T19:37:59Z) - Scalable Transformers for Neural Machine Translation [86.4530299266897]
トランスフォーマーは、そのキャパシティとシーケンス生成の並列トレーニングのため、ニューラルネットワーク翻訳(NMT)で広く採用されている。
本稿では,異なるスケールのサブトランスフォーマーを自然に含み,パラメータを共有できる,スケーラブルなトランスフォーマーを提案する。
スケーラブルトランスフォーマーのトレーニングの難しさに対処する3段階のトレーニングスキームが提案されている。
論文 参考訳(メタデータ) (2021-06-04T04:04:10Z) - TransVG: End-to-End Visual Grounding with Transformers [102.11922622103613]
本稿では,画像に対して言語クエリを接地するタスクに対処するためのトランスフォーマティブベースのフレームワークであるtransvgを提案する。
複雑な核融合モジュールは、高い性能でトランスフォーマーエンコーダ層を単純なスタックで置き換えることができることを示す。
論文 参考訳(メタデータ) (2021-04-17T13:35:24Z) - Long Range Arena: A Benchmark for Efficient Transformers [115.1654897514089]
ロングレンジアリーナベンチマーク(Long-rangearena benchmark)は、1Kドルから16Kドルまでの一連のタスクからなるスイートである。
我々は,新たに提案したベンチマークスイートを用いて,よく確立された10種類の長距離トランスフォーマーモデルを体系的に評価した。
論文 参考訳(メタデータ) (2020-11-08T15:53:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。