論文の概要: Multilingual Counter Narrative Type Classification
- arxiv url: http://arxiv.org/abs/2109.13664v1
- Date: Tue, 28 Sep 2021 12:31:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-09-29 14:42:44.209715
- Title: Multilingual Counter Narrative Type Classification
- Title(参考訳): 多言語対数ナラティブ型分類
- Authors: Yi-Ling Chung, Marco Guerini, Rodrigo Agerri
- Abstract要約: 本稿では,一言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多
特に、言語横断予測の前にすべての言語を英語に翻訳した場合に、カウンター・ナラティブ・タイプの大部分に対して、強力なベースライン分類結果が報告される。
- 参考スコア(独自算出の注目度): 13.653940190782142
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The growing interest in employing counter narratives for hatred intervention
brings with it a focus on dataset creation and automation strategies. In this
scenario, learning to recognize counter narrative types from natural text is
expected to be useful for applications such as hate speech countering, where
operators from non-governmental organizations are supposed to answer to hate
with several and diverse arguments that can be mined from online sources. This
paper presents the first multilingual work on counter narrative type
classification, evaluating SoTA pre-trained language models in monolingual,
multilingual and cross-lingual settings. When considering a fine-grained
annotation of counter narrative classes, we report strong baseline
classification results for the majority of the counter narrative types,
especially if we translate every language to English before cross-lingual
prediction. This suggests that knowledge about counter narratives can be
successfully transferred across languages.
- Abstract(参考訳): 憎悪の介入にカウンターナラティブを採用することへの関心が高まり、データセットの作成と自動化戦略に焦点が当てられている。
このシナリオでは、自然テキストからカウンターナラティブタイプを認識することを学ぶことは、ヘイトスピーチカウンティング(ヘイトスピーチカウンティング)のようなアプリケーションにとって有用であると期待されている。
本稿では,単言語・多言語・多言語・多言語・多言語・多言語設定におけるSoTA事前学習言語モデルの評価を行う。
対訳クラスの細粒度アノテーションを考えると,対談タイプの大部分について,特に言語横断予測の前にすべての言語を英語に翻訳する場合,強いベースライン分類結果が報告されている。
これは、対談に関する知識が言語間でうまく伝達できることを示唆している。
関連論文リスト
- Weigh Your Own Words: Improving Hate Speech Counter Narrative Generation
via Attention Regularization [31.40751207207214]
オンラインヘイトスピーチと戦うための最近の計算手法は、カウンターナラティブの自動生成を伴う。
本稿では, PLMの一般化機能を改善するために, 新たなアテンション正規化手法を提案する。
正規化されたモデルは、ほとんどの場合において最先端のアプローチよりも優れたカウンターナラティブを生み出す。
論文 参考訳(メタデータ) (2023-09-05T15:27:22Z) - T3L: Translate-and-Test Transfer Learning for Cross-Lingual Text
Classification [50.675552118811]
言語間テキスト分類は通常、様々な言語で事前訓練された大規模多言語言語モデル(LM)に基づいて構築される。
本稿では,古典的な「翻訳とテスト」パイプラインを再考し,翻訳と分類の段階を適切に分離することを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:33:22Z) - Cross-lingual Transfer Learning for Check-worthy Claim Identification
over Twitter [7.601937548486356]
ソーシャルメディアに拡散する誤報は、疑わしいインフォデミックになっている。
本稿では,多言語BERT(mBERT)モデルを用いて,5つの多言語対をまたいだ言語間チェックハーネス推定のための6つの手法を体系的に検討する。
以上の結果から,いくつかの言語対では,ゼロショットの言語間移動が可能であり,対象言語で訓練された単言語モデルに匹敵する性能が得られた。
論文 参考訳(メタデータ) (2022-11-09T18:18:53Z) - Exploring Teacher-Student Learning Approach for Multi-lingual
Speech-to-Intent Classification [73.5497360800395]
複数の言語をサポートするエンドツーエンドシステムを開発した。
我々は、事前訓練された多言語自然言語処理モデルからの知識を利用する。
論文 参考訳(メタデータ) (2021-09-28T04:43:11Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - Revisiting the Primacy of English in Zero-shot Cross-lingual Transfer [39.360667403003745]
ゼロショット・クロスランガル・トランスファーは実用的な解決策として浮上している。
人気のあるゼロショットベンチマークによって強化されたように、英語は転送のための主要なソース言語である。
ドイツ語やロシア語のような他の高リソース言語は、より効果的に転送されることがよくあります。
論文 参考訳(メタデータ) (2021-06-30T16:05:57Z) - Leveraging Adversarial Training in Self-Learning for Cross-Lingual Text
Classification [52.69730591919885]
本稿では,ラベル保存型入力摂動の最大損失を最小限に抑える半教師付き対向学習法を提案する。
多様な言語群に対する文書分類と意図分類において,有効性が著しく向上するのを観察する。
論文 参考訳(メタデータ) (2020-07-29T19:38:35Z) - Bridging Linguistic Typology and Multilingual Machine Translation with
Multi-View Language Representations [83.27475281544868]
特異ベクトル標準相関解析を用いて、各情報源からどのような情報が誘導されるかを調べる。
我々の表現は類型学を組み込み、言語関係と相関関係を強化する。
次に、多言語機械翻訳のための多視点言語ベクトル空間を利用して、競合する全体的な翻訳精度を実現する。
論文 参考訳(メタデータ) (2020-04-30T16:25:39Z) - On the Language Neutrality of Pre-trained Multilingual Representations [70.93503607755055]
語彙意味論に関して,多言語文脈埋め込みの言語中立性を直接的に検討する。
その結果、文脈埋め込みは言語ニュートラルであり、概して静的な単語型埋め込みよりも情報的であることがわかった。
本稿では,言語識別における最先端の精度に到達し,並列文の単語アライメントのための統計的手法の性能を一致させる方法について述べる。
論文 参考訳(メタデータ) (2020-04-09T19:50:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。