論文の概要: LTIatCMU at SemEval-2020 Task 11: Incorporating Multi-Level Features for
Multi-Granular Propaganda Span Identification
- arxiv url: http://arxiv.org/abs/2008.04820v2
- Date: Thu, 20 Aug 2020 15:14:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 10:54:02.065995
- Title: LTIatCMU at SemEval-2020 Task 11: Incorporating Multi-Level Features for
Multi-Granular Propaganda Span Identification
- Title(参考訳): ltiatcmu at semeval-2020 task 11: マルチレベル機能を組み込んだマルチグラニュラープロパガンダスパン識別
- Authors: Sopan Khosla, Rishabh Joshi, Ritam Dutt, Alan W Black, Yulia Tsvetkov
- Abstract要約: 本稿では,新聞記事におけるプロパガンダ・スパン識別の課題について述べる。
本稿では,BERT-BiLSTMに基づくプロパガンダ分類モデルを提案する。
- 参考スコア(独自算出の注目度): 70.1903083747775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we describe our submission for the task of Propaganda Span
Identification in news articles. We introduce a BERT-BiLSTM based span-level
propaganda classification model that identifies which token spans within the
sentence are indicative of propaganda. The "multi-granular" model incorporates
linguistic knowledge at various levels of text granularity, including word,
sentence and document level syntactic, semantic and pragmatic affect features,
which significantly improve model performance, compared to its
language-agnostic variant. To facilitate better representation learning, we
also collect a corpus of 10k news articles, and use it for fine-tuning the
model. The final model is a majority-voting ensemble which learns different
propaganda class boundaries by leveraging different subsets of incorporated
knowledge and attains $4^{th}$ position on the test leaderboard. Our final
model and code is released at https://github.com/sopu/PropagandaSemEval2020.
- Abstract(参考訳): 本稿では,ニュース記事におけるプロパガンダスパン識別タスクへの提案について述べる。
本稿では,文中のどのトークンスパンがプロパガンダの指標であるかを識別する,bert-bilstmに基づくスパンレベルのプロパガンダ分類モデルを提案する。
マルチグラニュラー」モデルは、単語、文、文書レベルの構文、意味、実用的影響といった様々なレベルの言語知識を取り入れており、言語に依存しない変種と比較して、モデルの性能を著しく改善している。
表現学習を容易にするために,10kニュース記事のコーパスを収集し,モデルを微調整するために利用する。
最後のモデルは、さまざまな知識のサブセットを活用して、異なるプロパガンダクラス境界を学習し、テストリーダーボードで$4^{th}$のポジションを得るマジョリティ投票アンサンブルである。
最後のモデルとコードはhttps://github.com/sopu/propagandasemeval2020でリリースします。
関連論文リスト
- MemeMind at ArAIEval Shared Task: Spotting Persuasive Spans in Arabic Text with Persuasion Techniques Identification [0.10120650818458249]
本稿では,ツイートやニュース段落からアラビア語テキスト中の伝搬的スパンと説得技術を検出することに焦点を当てる。
提案手法はF1スコア0.2774を達成し,タスク1のリーダーボードにおける第3位を確保した。
論文 参考訳(メタデータ) (2024-08-08T15:49:01Z) - Exposing propaganda: an analysis of stylistic cues comparing human
annotations and machine classification [0.7749297275724032]
本稿では,プロパガンダの言語とそのスタイル的特徴について検討する。
プロパガンダソースとして特定されたウェブサイトから抽出されたニュース記事からなるPPNデータセットを提示する。
我々は,アノテーションが使用する手がかりを識別するために異なるNLP手法を提案し,それらを機械分類と比較した。
論文 参考訳(メタデータ) (2024-02-06T07:51:54Z) - HuBERTopic: Enhancing Semantic Representation of HuBERT through
Self-supervision Utilizing Topic Model [62.995175485416]
本稿では,HuBERTのセマンティック表現を豊かにするための新しいアプローチを提案する。
トピックラベルを教師として使用することにより、HuBERTに補助的なトピック分類タスクを追加する。
実験の結果,本手法は,ほとんどのタスクにおいて,ベースラインと同等あるいは優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-06T02:19:09Z) - Hierarchical Multi-Instance Multi-Label Learning for Detecting
Propaganda Techniques [12.483639681339767]
本稿では,記事中の全スパンを同時に分類するシンプルなRoBERTaモデルを提案する。
決定木の各ノードに補助的な分類子を追加することで階層的なラベル依存を組み込む。
我々のモデルは、クロスバリデーション設定で共有タスク勝利チームからモデルに対して2.47%のマイクロF1を絶対的に改善します。
論文 参考訳(メタデータ) (2023-05-30T21:23:19Z) - Open-Vocabulary Multi-Label Classification via Multi-modal Knowledge
Transfer [55.885555581039895]
マルチラベルゼロショット学習(ML-ZSL)は、事前訓練されたテキストラベル埋め込みによる知識の伝達に焦点を当てている。
マルチラベル分類のためのMKT(Multimodal Knowledge Transfer)と呼ばれる新しいオープン語彙フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T08:32:18Z) - Lattice-BERT: Leveraging Multi-Granularity Representations in Chinese
Pre-trained Language Models [62.41139712595334]
中国語のための新しい事前学習パラダイムであるLattice-BERTを提案する。
文中の文字や単語から格子グラフを構築し、これらすべてのテキスト単位をトランスフォーマーに供給します。
本モデルが12層設定で平均1.5%の増加をもたらすことを示した。
論文 参考訳(メタデータ) (2021-04-15T02:36:49Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z) - InfoXLM: An Information-Theoretic Framework for Cross-Lingual Language
Model Pre-Training [135.12061144759517]
本稿では,言語間言語モデルの事前学習を定式化する情報理論フレームワークを提案する。
コントラスト学習に基づく新しい事前学習課題を提案する。
単言語コーパスと並列コーパスの両方を活用することで、事前訓練されたモデルの言語間変換性を向上させるために、プレテキストを共同で訓練する。
論文 参考訳(メタデータ) (2020-07-15T16:58:01Z) - BPGC at SemEval-2020 Task 11: Propaganda Detection in News Articles with
Multi-Granularity Knowledge Sharing and Linguistic Features based Ensemble
Learning [2.8913142991383114]
SemEval 2020 Task-11はニュースプロパガンダ検出のための自動システムの設計を目的としている。
Task-11 は2つのサブタスク、すなわち Span Identification と Technique Classification から構成される。
論文 参考訳(メタデータ) (2020-05-31T19:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。