論文の概要: Cross-lingual Zero- and Few-shot Hate Speech Detection Utilising Frozen
Transformer Language Models and AXEL
- arxiv url: http://arxiv.org/abs/2004.13850v1
- Date: Mon, 13 Apr 2020 09:58:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 22:57:36.220340
- Title: Cross-lingual Zero- and Few-shot Hate Speech Detection Utilising Frozen
Transformer Language Models and AXEL
- Title(参考訳): 凍結変圧器言語モデルとAXELを用いた言語間ゼロ・フルショットHate音声検出
- Authors: Lukas Stappen, Fabian Brunn, Bj\"orn Schuller
- Abstract要約: 我々は,ゼロショット学習と少数ショット学習を交互に行うために,凍結・事前学習型トランスフォーマーをベースとした調整型アーキテクチャを開発した。
新たなアテンションベースの分類ブロックAXELでは、英語とスペイン語のサブセットに対して高い競争力を持つ結果が示される。
- 参考スコア(独自算出の注目度): 6.223778720014058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting hate speech, especially in low-resource languages, is a non-trivial
challenge. To tackle this, we developed a tailored architecture based on
frozen, pre-trained Transformers to examine cross-lingual zero-shot and
few-shot learning, in addition to uni-lingual learning, on the HatEval
challenge data set. With our novel attention-based classification block AXEL,
we demonstrate highly competitive results on the English and Spanish subsets.
We also re-sample the English subset, enabling additional, meaningful
comparisons in the future.
- Abstract(参考訳): 特に低リソース言語におけるヘイトスピーチの検出は、ささいな課題です。
そこで我々は,HackEvalチャレンジデータセット上で,一言語学習に加えて,クロスランガルゼロショットと少数ショット学習を学習するための,凍結事前学習型トランスフォーマーに基づく調整アーキテクチャを開発した。
新たなアテンションベースの分類ブロックAXELでは,英語とスペイン語のサブセットに対して高い競争力を示す。
また、英語のサブセットを再サンプリングし、将来有意義な比較を可能にする。
関連論文リスト
- Decoupled Vocabulary Learning Enables Zero-Shot Translation from Unseen Languages [55.157295899188476]
ニューラルマシン翻訳システムは、異なる言語の文を共通の表現空間にマッピングすることを学ぶ。
本研究では、この仮説を未知の言語からのゼロショット翻訳により検証する。
この設定により、全く見えない言語からのゼロショット翻訳が可能になることを実証する。
論文 参考訳(メタデータ) (2024-08-05T07:58:58Z) - Understanding and Mitigating Language Confusion in LLMs [76.96033035093204]
我々は,既存の英語および多言語プロンプトを用いた15の型的多様言語の評価を行った。
Llama Instruct と Mistral のモデルでは,言語的混乱の度合いが高いことがわかった。
言語混乱は,数発のプロンプト,多言語SFT,選好調整によって部分的に緩和できることがわかった。
論文 参考訳(メタデータ) (2024-06-28T17:03:51Z) - Basque and Spanish Counter Narrative Generation: Data Creation and Evaluation [12.528286054814956]
我々は,機械翻訳(MT)と専門的な後編集によって開発されたCN生成のための新しいバスク・スペイン語データセットを提案する。
パラレルコーパス(英語版)であり、元々の英語のCONANに対しても、CNの多言語および多言語自動生成に関する新しい研究を行うことができる。
論文 参考訳(メタデータ) (2024-03-14T08:12:47Z) - Multilingual Auxiliary Tasks Training: Bridging the Gap between
Languages for Zero-Shot Transfer of Hate Speech Detection Models [3.97478982737167]
副タスクの微調整によって得られる言語間知識プロキシにより、ヘイトスピーチ検出モデルがどのような恩恵を受けるかを示す。
本稿では,言語間のヘイトスピーチ検出モデルのゼロショット転送を改善するために,多言語補助タスクの訓練を提案する。
論文 参考訳(メタデータ) (2022-10-24T08:26:51Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Cross-Lingual Training with Dense Retrieval for Document Retrieval [56.319511218754414]
我々は、英語のアノテーションから複数の非英語言語への文書ランク付けのための異なる転送手法について検討する。
6つの言語(中国語、アラビア語、フランス語、ヒンディー語、ベンガル語、スペイン語)におけるテストコレクションの実験。
弱教師付きターゲット言語転送は、世代ベースターゲット言語転送に対する競合性能をもたらすことが判明した。
論文 参考訳(メタデータ) (2021-09-03T17:15:38Z) - Cross-lingual Capsule Network for Hate Speech Detection in Social Media [6.531659195805749]
本研究では,言語間のヘイトスピーチ検出タスクについて検討し,ヘイトスピーチのリソースをある言語から別の言語に適応させることによって問題に対処する。
本稿では,ヘイトスピーチのための言語間カプセルネットワーク学習モデルと追加のドメイン固有語彙意味論を組み合わせることを提案する。
私たちのモデルは、AMI@Evalita 2018とAMI@Ibereval 2018のベンチマークデータセットで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2021-08-06T12:53:41Z) - From Masked Language Modeling to Translation: Non-English Auxiliary
Tasks Improve Zero-shot Spoken Language Understanding [24.149299722716155]
非常に低リソースの方言を含む6言語ファミリーの13言語を対象に,言語間SlotとIntent Detectionの新しいベンチマークであるxSIDを紹介した。
本研究では,英語SLU学習データと原文,構文,翻訳による非英語補助課題を併用した共同学習手法を提案する。
その結果,マスキング言語モデルによる主タスクの学習はスロットに有効であり,機械翻訳は意図分類に最適であることがわかった。
論文 参考訳(メタデータ) (2021-05-15T23:51:11Z) - Beyond the English Web: Zero-Shot Cross-Lingual and Lightweight
Monolingual Classification of Registers [0.6526029433717663]
Web文書のレジスタ分類のクロスリンガル転送について検討する。
フランス語とスウェーデン語の2つの新しいレジスタアノテートコーポラ、FreCOREとSweCOREを紹介します。
深い学習済み言語モデルは、これらの言語で強く機能し、英語とフィンランド語の以前の最新技術を上回る性能を発揮します。
論文 参考訳(メタデータ) (2021-02-15T08:40:08Z) - VECO: Variable and Flexible Cross-lingual Pre-training for Language
Understanding and Generation [77.82373082024934]
我々はTransformerエンコーダにクロスアテンションモジュールを挿入し、言語間の相互依存を明確に構築する。
独自の言語でコンテキストにのみ条件付けされたマスク付き単語の予測の退化を効果的に回避することができる。
提案した言語間モデルでは,XTREMEベンチマークのさまざまな言語間理解タスクに対して,最先端の新たな結果が提供される。
論文 参考訳(メタデータ) (2020-10-30T03:41:38Z) - How Phonotactics Affect Multilingual and Zero-shot ASR Performance [74.70048598292583]
Transformer encoder-decoderモデルは、トレーニング中に提示された言語のIPA転写において、多言語データをうまく活用することが示されている。
我々は,エンコーダデコーダをAMとLMを分離したハイブリッドASRシステムに置き換える。
交叉音韻律のモデル化による利得は限定的であり,強すぎるモデルがゼロショット転送を損なう可能性があることを示す。
論文 参考訳(メタデータ) (2020-10-22T23:07:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。