論文の概要: DUTH at SemEval-2020 Task 11: BERT with Entity Mapping for Propaganda
Classification
- arxiv url: http://arxiv.org/abs/2008.09894v2
- Date: Tue, 25 Aug 2020 10:20:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 08:06:03.448272
- Title: DUTH at SemEval-2020 Task 11: BERT with Entity Mapping for Propaganda
Classification
- Title(参考訳): SemEval-2020 Task 11: BERT with Entity Mapping for Propaganda Classification (英語)
- Authors: Anastasios Bairaktaris, Symeon Symeonidis, Avi Arampatzis
- Abstract要約: 本報告では,SemEval-2020 Task 11: Detection of Propaganda Techniques in News Articlesに参加するために,Democritus University of Thrace(DUTH)チームが採用した手法について述べる。
- 参考スコア(独自算出の注目度): 1.5469452301122173
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This report describes the methods employed by the Democritus University of
Thrace (DUTH) team for participating in SemEval-2020 Task 11: Detection of
Propaganda Techniques in News Articles. Our team dealt with Subtask 2:
Technique Classification. We used shallow Natural Language Processing (NLP)
preprocessing techniques to reduce the noise in the dataset, feature selection
methods, and common supervised machine learning algorithms. Our final model is
based on using the BERT system with entity mapping. To improve our model's
accuracy, we mapped certain words into five distinct categories by employing
word-classes and entity recognition.
- Abstract(参考訳): 本報告では,SemEval-2020 Task 11: Detection of Propaganda Techniques in News Articlesに参加するために,Democritus University of Thrace(DUTH)チームが採用した手法について述べる。
私たちのチームはsubtask 2を扱った: テクニックの分類。
我々は,データセットのノイズ低減,特徴選択手法,教師あり機械学習アルゴリズムのために,浅い自然言語処理(nlp)前処理手法を用いた。
我々の最終モデルはエンティティマッピングを用いたBERTシステムに基づいている。
モデルの精度を向上させるために,単語クラスと実体認識を用いて,ある単語を5つのカテゴリーに分類した。
関連論文リスト
- Automated Few-shot Classification with Instruction-Finetuned Language
Models [76.69064714392165]
我々は、AuT-Fewが最先端の数ショット学習方法より優れていることを示す。
AuT-Few は RAFT few-shot ベンチマークにおいて,データセット間で最高のランク付け手法であることを示す。
論文 参考訳(メタデータ) (2023-05-21T21:50:27Z) - Neural Coreference Resolution based on Reinforcement Learning [53.73316523766183]
コアレゾリューションシステムは2つのサブタスクを解決する必要がある。
ひとつのタスクは、潜在的な言及のすべてを検出することであり、もう1つは、可能な言及ごとに前者のリンクを学習することである。
本稿では,アクターをベースとした強化学習型ニューラルコア参照分解システムを提案する。
論文 参考訳(メタデータ) (2022-12-18T07:36:35Z) - Training ELECTRA Augmented with Multi-word Selection [53.77046731238381]
本稿では,マルチタスク学習に基づくELECTRAの改良を目的としたテキストエンコーダ事前学習手法を提案する。
具体的には、識別器を訓練し、置換トークンを同時に検出し、候補集合から元のトークンを選択する。
論文 参考訳(メタデータ) (2021-05-31T23:19:00Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z) - Solomon at SemEval-2020 Task 11: Ensemble Architecture for Fine-Tuned
Propaganda Detection in News Articles [0.3232625980782302]
本稿では,第11節「新聞記事におけるプロパガンダ技術の検出」に参画したシステム(ソロモン)の詳細と成果について述べる。
プロパガンダデータセットの微調整にRoBERTaベースのトランスフォーマーアーキテクチャを使用した。
他の参加システムと比較して、私たちの応募はリーダーボードで4位です。
論文 参考訳(メタデータ) (2020-09-16T05:00:40Z) - Team DoNotDistribute at SemEval-2020 Task 11: Features, Finetuning, and
Data Augmentation in Neural Models for Propaganda Detection in News Articles [13.339333273943843]
本稿では,SemEval 2020 Shared Task 11: Detection of Propaganda Techniques in News Articlesについて述べる。
本研究は,スパン識別と技術分類の両方のサブタスクに参加し,さまざまなBERTモデルと手作り特徴を用いた実験について報告する。
論文 参考訳(メタデータ) (2020-08-21T22:35:57Z) - LTIatCMU at SemEval-2020 Task 11: Incorporating Multi-Level Features for
Multi-Granular Propaganda Span Identification [70.1903083747775]
本稿では,新聞記事におけるプロパガンダ・スパン識別の課題について述べる。
本稿では,BERT-BiLSTMに基づくプロパガンダ分類モデルを提案する。
論文 参考訳(メタデータ) (2020-08-11T16:14:47Z) - NoPropaganda at SemEval-2020 Task 11: A Borrowed Approach to Sequence
Tagging and Text Classification [0.0]
本稿では,SemEval-2020 Task 11: Detection of Propaganda Techniques in News Articlesについて述べる。
簡単なLSTMベースラインから始まり、自動回帰変換器デコーダに移行し、最初のサブタスクで長い連続プロパガンダ幅を予測する。
また,2番目のプロパガンダ手法分類のための特別なトークンを付して,上述のスパンを包み込み,関係抽出からのアプローチを採用した。
論文 参考訳(メタデータ) (2020-07-25T11:35:57Z) - newsSweeper at SemEval-2020 Task 11: Context-Aware Rich Feature
Representations For Propaganda Classification [2.0491741153610334]
本稿では,SemEval 2020 Task 11: Detection of Propaganda Techniques in News Articlesについて述べる。
我々は、名前付きエンティティ認識タスクのために開発されたタグ付け技術により、事前訓練されたBERT言語モデルを活用している。
第2のサブタスクでは,プロパガンダ手法の分類のために,事前学習したRoBERTaモデルにコンテキスト特徴を組み込む。
論文 参考訳(メタデータ) (2020-07-21T14:06:59Z) - BPGC at SemEval-2020 Task 11: Propaganda Detection in News Articles with
Multi-Granularity Knowledge Sharing and Linguistic Features based Ensemble
Learning [2.8913142991383114]
SemEval 2020 Task-11はニュースプロパガンダ検出のための自動システムの設計を目的としている。
Task-11 は2つのサブタスク、すなわち Span Identification と Technique Classification から構成される。
論文 参考訳(メタデータ) (2020-05-31T19:35:53Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。