論文の概要: Code-switching patterns can be an effective route to improve performance
of downstream NLP applications: A case study of humour, sarcasm and hate
speech detection
- arxiv url: http://arxiv.org/abs/2005.02295v1
- Date: Tue, 5 May 2020 15:48:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 14:08:54.331824
- Title: Code-switching patterns can be an effective route to improve performance
of downstream NLP applications: A case study of humour, sarcasm and hate
speech detection
- Title(参考訳): コード切り換えパターンは下流nlpアプリケーションの性能を向上させる効果的な方法である:ユーモア、皮肉、ヘイトスピーチ検出を事例として
- Authors: Srijan Bansal, Vishal Garimella, Ayush Suhane, Jasabanta Patro,
Animesh Mukherjee
- Abstract要約: ダウンストリームNLPアプリケーションを改善するために,コードスイッチングパターンをどのように利用できるかを示す。
特に、ユーモア、皮肉、ヘイトスピーチ検出タスクを改善するために、様々なスイッチング機能を符号化する。
- 参考スコア(独自算出の注目度): 8.24969449883056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we demonstrate how code-switching patterns can be utilised to
improve various downstream NLP applications. In particular, we encode different
switching features to improve humour, sarcasm and hate speech detection tasks.
We believe that this simple linguistic observation can also be potentially
helpful in improving other similar NLP applications.
- Abstract(参考訳): 本稿では、コードスイッチングパターンを用いて、下流の様々なNLPアプリケーションを改善する方法について述べる。
特に,ユーモア,皮肉,ヘイトスピーチ検出タスクを改善するために,異なるスイッチング機能をエンコードする。
この単純な言語学的観察は、他の類似のNLPアプリケーションの改善にも役立つと信じている。
関連論文リスト
- TG-LLaVA: Text Guided LLaVA via Learnable Latent Embeddings [61.9257731511557]
視覚言語モデル(VLM)を最適化するためのテキストガイド付きLLaVA(TG-LLaVA)を提案する。
学習可能な潜伏埋め込みをブリッジとして使用し、テキスト命令を分析し、視覚エンコーダに解析結果をガイダンスとして付加する。
テキストのガイダンスによって、視覚エンコーダは、人間が質問を考えるとき、画像の最も関連性の高い部分に集中する方法と同様に、テキスト関連の特徴を抽出することができる。
論文 参考訳(メタデータ) (2024-09-15T00:38:34Z) - Limitations of the decoding-to-LPN reduction via code smoothing [59.90381090395222]
LPN問題(Learning Parity with Noise)は、いくつかの古典的な暗号プリミティブの根底にある問題である。
本稿では,線形符号の復号化問題から,難易度がいくつか存在することの低減を試みている。
我々は、復号化の効率を、復号化のパラメータと問題の観点から特徴づける。
論文 参考訳(メタデータ) (2024-08-07T12:54:43Z) - Improving Korean NLP Tasks with Linguistically Informed Subword
Tokenization and Sub-character Decomposition [6.767341847275751]
本稿では, Byte Pairの適用課題に対処するために, サブ文字分解を利用した形態素認識サブワードトークン化手法を提案する。
我々のアプローチは、事前学習言語モデル(PLM)における言語精度と計算効率のバランスをとる
本手法は, NIKL-CoLAの構文的タスクにおいて, 総合的に優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-11-07T12:08:21Z) - Prefer to Classify: Improving Text Classifiers via Auxiliary Preference
Learning [76.43827771613127]
本稿では、このような補助データアノテーションの新しい代替手段として、入力テキストのペア間のタスク固有の嗜好について検討する。
本稿では、与えられた分類課題と補助的選好の両方を学ぶことの協調効果を享受できる、P2Cと呼ばれる新しいマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T04:04:47Z) - ParaAMR: A Large-Scale Syntactically Diverse Paraphrase Dataset by AMR
Back-Translation [59.91139600152296]
ParaAMRは、抽象的な表現のバックトランスレーションによって生成される、大規模な構文的に多様なパラフレーズデータセットである。
そこで本研究では,ParaAMRを用いて文の埋め込み学習,構文的に制御されたパラフレーズ生成,数ショット学習のためのデータ拡張という,3つのNLPタスクを改善することができることを示す。
論文 参考訳(メタデータ) (2023-05-26T02:27:33Z) - Disentangled Feature Learning for Real-Time Neural Speech Coding [24.751813940000993]
本稿では,視覚的なエンドツーエンド学習の代わりに,リアルタイムなニューラル音声符号化のための非絡み合った特徴を学習することを提案する。
学習された不整合特徴は、現代の自己教師付き音声表現学習モデルを用いて、任意の音声変換において同等の性能を示す。
論文 参考訳(メタデータ) (2022-11-22T02:50:12Z) - Checks and Strategies for Enabling Code-Switched Machine Translation [22.67264032644644]
コードスイッチングは多言語話者の間で共通する現象であり、単一の会話の文脈内で2つ以上の言語間の交替が発生する。
この研究は、コードスイッチされたテキストを処理する多言語ニューラルネットワーク翻訳(NMT)モデルの能力について検討する。
論文 参考訳(メタデータ) (2022-10-11T02:25:21Z) - ContraCLM: Contrastive Learning For Causal Language Model [54.828635613501376]
トークンレベルとシーケンスレベルの両方において,新しいコントラスト学習フレームワークであるContraCLMを提案する。
ContraCLMは表現の識別を強化し、エンコーダのみのモデルとのギャップを埋めることを示す。
論文 参考訳(メタデータ) (2022-10-03T18:56:35Z) - Improving the expressiveness of neural vocoding with non-affine
Normalizing Flows [10.823849173208082]
改良されたパラレルウェーブネット(PW)による表現的音声ボコーディングの改善
我々は,PW論文が提案する確率密度手順を原論文と比較することにより,確率密度を拡張する。
論文 参考訳(メタデータ) (2021-06-16T09:25:18Z) - Neural Text Generation with Part-of-Speech Guided Softmax [82.63394952538292]
テキスト生成を導くために,言語アノテーション,すなわち部分音声(POS)を用いることを提案する。
提案手法は,比較品質を維持しつつ,より多様なテキストを生成できることを示した。
論文 参考訳(メタデータ) (2021-05-08T08:53:16Z) - ZEN 2.0: Continue Training and Adaption for N-gram Enhanced Text
Encoders [32.53471313532653]
大量のデータと高度なトレーニング技術を備えたnグラムエンコーダの事前トレーニングを提案します。
言語やドメインにまたがるNLPタスクの長いリストから、最新のパフォーマンスが観察されます。
論文 参考訳(メタデータ) (2021-05-04T04:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。