論文の概要: Code-switching patterns can be an effective route to improve performance
of downstream NLP applications: A case study of humour, sarcasm and hate
speech detection
- arxiv url: http://arxiv.org/abs/2005.02295v1
- Date: Tue, 5 May 2020 15:48:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 14:08:54.331824
- Title: Code-switching patterns can be an effective route to improve performance
of downstream NLP applications: A case study of humour, sarcasm and hate
speech detection
- Title(参考訳): コード切り換えパターンは下流nlpアプリケーションの性能を向上させる効果的な方法である:ユーモア、皮肉、ヘイトスピーチ検出を事例として
- Authors: Srijan Bansal, Vishal Garimella, Ayush Suhane, Jasabanta Patro,
Animesh Mukherjee
- Abstract要約: ダウンストリームNLPアプリケーションを改善するために,コードスイッチングパターンをどのように利用できるかを示す。
特に、ユーモア、皮肉、ヘイトスピーチ検出タスクを改善するために、様々なスイッチング機能を符号化する。
- 参考スコア(独自算出の注目度): 8.24969449883056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we demonstrate how code-switching patterns can be utilised to
improve various downstream NLP applications. In particular, we encode different
switching features to improve humour, sarcasm and hate speech detection tasks.
We believe that this simple linguistic observation can also be potentially
helpful in improving other similar NLP applications.
- Abstract(参考訳): 本稿では、コードスイッチングパターンを用いて、下流の様々なNLPアプリケーションを改善する方法について述べる。
特に,ユーモア,皮肉,ヘイトスピーチ検出タスクを改善するために,異なるスイッチング機能をエンコードする。
この単純な言語学的観察は、他の類似のNLPアプリケーションの改善にも役立つと信じている。
関連論文リスト
- Unlocking Efficiency in Large Language Model Inference: A Comprehensive
Survey of Speculative Decoding [48.23348694701169]
投機的デコーディングは、LLM(Large Language Models)推論のための新しいデコーディングパラダイムとして登場した。
復号処理の各ステップにおいて、この手法はまず、複数の将来のトークンを効率的にドラフトし、それらを並列に検証する。
本稿では,この有望な復号化パラダイムの概観と解析について述べる。
論文 参考訳(メタデータ) (2024-01-15T17:26:50Z) - Improving Korean NLP Tasks with Linguistically Informed Subword
Tokenization and Sub-character Decomposition [6.767341847275751]
本稿では, Byte Pairの適用課題に対処するために, サブ文字分解を利用した形態素認識サブワードトークン化手法を提案する。
我々のアプローチは、事前学習言語モデル(PLM)における言語精度と計算効率のバランスをとる
本手法は, NIKL-CoLAの構文的タスクにおいて, 総合的に優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-11-07T12:08:21Z) - Zero Resource Code-switched Speech Benchmark Using Speech Utterance
Pairs For Multiple Spoken Languages [53.31212831917155]
我々は,自己教師型音声エンコーダのコード切替能力を評価するために,ゼロリソースコード切替音声ベンチマークを導入した。
本稿では,音声エンコーダのコードスイッチング能力を評価するために,離散単位に基づく言語モデリングのベースラインシステムを紹介する。
論文 参考訳(メタデータ) (2023-10-04T17:58:11Z) - Prefer to Classify: Improving Text Classifiers via Auxiliary Preference
Learning [76.43827771613127]
本稿では、このような補助データアノテーションの新しい代替手段として、入力テキストのペア間のタスク固有の嗜好について検討する。
本稿では、与えられた分類課題と補助的選好の両方を学ぶことの協調効果を享受できる、P2Cと呼ばれる新しいマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T04:04:47Z) - ParaAMR: A Large-Scale Syntactically Diverse Paraphrase Dataset by AMR
Back-Translation [59.91139600152296]
ParaAMRは、抽象的な表現のバックトランスレーションによって生成される、大規模な構文的に多様なパラフレーズデータセットである。
そこで本研究では,ParaAMRを用いて文の埋め込み学習,構文的に制御されたパラフレーズ生成,数ショット学習のためのデータ拡張という,3つのNLPタスクを改善することができることを示す。
論文 参考訳(メタデータ) (2023-05-26T02:27:33Z) - Disentangled Feature Learning for Real-Time Neural Speech Coding [24.751813940000993]
本稿では,視覚的なエンドツーエンド学習の代わりに,リアルタイムなニューラル音声符号化のための非絡み合った特徴を学習することを提案する。
学習された不整合特徴は、現代の自己教師付き音声表現学習モデルを用いて、任意の音声変換において同等の性能を示す。
論文 参考訳(メタデータ) (2022-11-22T02:50:12Z) - Checks and Strategies for Enabling Code-Switched Machine Translation [22.67264032644644]
コードスイッチングは多言語話者の間で共通する現象であり、単一の会話の文脈内で2つ以上の言語間の交替が発生する。
この研究は、コードスイッチされたテキストを処理する多言語ニューラルネットワーク翻訳(NMT)モデルの能力について検討する。
論文 参考訳(メタデータ) (2022-10-11T02:25:21Z) - ContraCLM: Contrastive Learning For Causal Language Model [54.828635613501376]
トークンレベルとシーケンスレベルの両方において,新しいコントラスト学習フレームワークであるContraCLMを提案する。
ContraCLMは表現の識別を強化し、エンコーダのみのモデルとのギャップを埋めることを示す。
論文 参考訳(メタデータ) (2022-10-03T18:56:35Z) - Improving the expressiveness of neural vocoding with non-affine
Normalizing Flows [10.823849173208082]
改良されたパラレルウェーブネット(PW)による表現的音声ボコーディングの改善
我々は,PW論文が提案する確率密度手順を原論文と比較することにより,確率密度を拡張する。
論文 参考訳(メタデータ) (2021-06-16T09:25:18Z) - Neural Text Generation with Part-of-Speech Guided Softmax [82.63394952538292]
テキスト生成を導くために,言語アノテーション,すなわち部分音声(POS)を用いることを提案する。
提案手法は,比較品質を維持しつつ,より多様なテキストを生成できることを示した。
論文 参考訳(メタデータ) (2021-05-08T08:53:16Z) - ZEN 2.0: Continue Training and Adaption for N-gram Enhanced Text
Encoders [32.53471313532653]
大量のデータと高度なトレーニング技術を備えたnグラムエンコーダの事前トレーニングを提案します。
言語やドメインにまたがるNLPタスクの長いリストから、最新のパフォーマンスが観察されます。
論文 参考訳(メタデータ) (2021-05-04T04:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。