論文の概要: NoPropaganda at SemEval-2020 Task 11: A Borrowed Approach to Sequence
Tagging and Text Classification
- arxiv url: http://arxiv.org/abs/2007.12913v1
- Date: Sat, 25 Jul 2020 11:35:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 00:59:17.275891
- Title: NoPropaganda at SemEval-2020 Task 11: A Borrowed Approach to Sequence
Tagging and Text Classification
- Title(参考訳): NoPropaganda at SemEval-2020 Task 11: A Borrowed Approach to Sequence Tagging and Text Classification
- Authors: Ilya Dimov, Vladislav Korzun and Ivan Smurov
- Abstract要約: 本稿では,SemEval-2020 Task 11: Detection of Propaganda Techniques in News Articlesについて述べる。
簡単なLSTMベースラインから始まり、自動回帰変換器デコーダに移行し、最初のサブタスクで長い連続プロパガンダ幅を予測する。
また,2番目のプロパガンダ手法分類のための特別なトークンを付して,上述のスパンを包み込み,関係抽出からのアプローチを採用した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes our contribution to SemEval-2020 Task 11: Detection Of
Propaganda Techniques In News Articles. We start with simple LSTM baselines and
move to an autoregressive transformer decoder to predict long continuous
propaganda spans for the first subtask. We also adopt an approach from relation
extraction by enveloping spans mentioned above with special tokens for the
second subtask of propaganda technique classification. Our models report an
F-score of 44.6% and a micro-averaged F-score of 58.2% for those tasks
accordingly.
- Abstract(参考訳): 本稿では,SemEval-2020 Task 11: Detection of Propaganda Techniques in News Articlesについて述べる。
簡単なLSTMベースラインから始まり、自動回帰変換器デコーダに移行し、最初のサブタスクで長い連続プロパガンダ幅を予測する。
また,上述のスパンをプロパガンダ技術分類の第2サブタスクのための特別なトークンで包含して関係抽出するアプローチも採用する。
我々のモデルでは、f-scoreは44.6%、マイクロ平均f-scoreは58.2%である。
関連論文リスト
- Can You Label Less by Using Out-of-Domain Data? Active & Transfer
Learning with Few-shot Instructions [58.69255121795761]
そこで本研究では, 微調整を必要としない, アクティブトランスファーファウショットインストラクション (ATF) アプローチを提案する。
ATFは、事前訓練された言語モデル(PLM)の内部言語知識を活用し、情報の伝達を容易にする。
アクティブラーニングによる少数の対象ドメインサンプルのアノテーションは、転送に有用であるが、アノテーションの取り組みによって影響は減少する。
論文 参考訳(メタデータ) (2022-11-21T19:03:31Z) - Alibaba-Translate China's Submission for WMT 2022 Metrics Shared Task [61.34108034582074]
私たちはUNITE(Unified Translation Evaluation)のコアアイデアに基づいてシステムを構築します。
モデル事前学習の段階では、まず擬似ラベル付きデータ例をUNITEの継続事前訓練に適用する。
微調整の段階では、過去のWMTコンペティションの直接評価(DA)と多次元品質メトリクス(MQM)のデータの両方を使用します。
論文 参考訳(メタデータ) (2022-10-18T08:51:25Z) - PANDA: Prompt Transfer Meets Knowledge Distillation for Efficient Model Adaptation [89.0074567748505]
即時転送可能性(i)を正確に予測する新しい指標と,新しいPoTアプローチ(PANDA)を提案する。
提案手法は,各タスクおよびモデルサイズの平均スコアの2.3%(最大24.1%)でバニラPoTアプローチを一貫して上回り,その3。
論文 参考訳(メタデータ) (2022-08-22T09:14:14Z) - Solomon at SemEval-2020 Task 11: Ensemble Architecture for Fine-Tuned
Propaganda Detection in News Articles [0.3232625980782302]
本稿では,第11節「新聞記事におけるプロパガンダ技術の検出」に参画したシステム(ソロモン)の詳細と成果について述べる。
プロパガンダデータセットの微調整にRoBERTaベースのトランスフォーマーアーキテクチャを使用した。
他の参加システムと比較して、私たちの応募はリーダーボードで4位です。
論文 参考訳(メタデータ) (2020-09-16T05:00:40Z) - SemEval-2020 Task 11: Detection of Propaganda Techniques in News
Articles [0.6999740786886536]
本稿では,新聞記事中のプロパガンダ技術の検出に関するSemEval-2020 Task 11の結果を紹介する。
このタスクには、スパン識別と技術分類という2つのサブタスクがあった。
両方のサブタスクでは、最高のシステムはトレーニング済みのトランスフォーマーとアンサンブルを使用していた。
論文 参考訳(メタデータ) (2020-09-06T10:05:43Z) - YNU-HPCC at SemEval-2020 Task 11: LSTM Network for Detection of
Propaganda Techniques in News Articles [5.352512345142247]
本稿では,SemEval-2020タスク11におけるニュース記事のプロパガンダ検出手法について概説する。
本稿では,GloVe単語表現,BERT事前学習モデル,LSTMモデルアーキテクチャを実装した。
本手法は, テストセットにおいて, SIおよびTCサブタスクのランクが17位, 22位, それぞれ有意に向上した。
論文 参考訳(メタデータ) (2020-08-24T02:42:12Z) - DUTH at SemEval-2020 Task 11: BERT with Entity Mapping for Propaganda
Classification [1.5469452301122173]
本報告では,SemEval-2020 Task 11: Detection of Propaganda Techniques in News Articlesに参加するために,Democritus University of Thrace(DUTH)チームが採用した手法について述べる。
論文 参考訳(メタデータ) (2020-08-22T18:18:02Z) - LTIatCMU at SemEval-2020 Task 11: Incorporating Multi-Level Features for
Multi-Granular Propaganda Span Identification [70.1903083747775]
本稿では,新聞記事におけるプロパガンダ・スパン識別の課題について述べる。
本稿では,BERT-BiLSTMに基づくプロパガンダ分類モデルを提案する。
論文 参考訳(メタデータ) (2020-08-11T16:14:47Z) - SemEval-2020 Task 10: Emphasis Selection for Written Text in Visual
Media [50.29389719723529]
本稿では,SemEval-2020 Task 10, Emphasis Selection for Written Text in Visual Media の主な成果とその結果を比較した。
この共有タスクの目的は、強調選択のための自動メソッドを設計することである。
タスクに送信されたシステムの解析は、BERTとRoBERTaが、トレーニング済みモデルの最も一般的な選択であることを示している。
論文 参考訳(メタデータ) (2020-08-07T17:24:53Z) - newsSweeper at SemEval-2020 Task 11: Context-Aware Rich Feature
Representations For Propaganda Classification [2.0491741153610334]
本稿では,SemEval 2020 Task 11: Detection of Propaganda Techniques in News Articlesについて述べる。
我々は、名前付きエンティティ認識タスクのために開発されたタグ付け技術により、事前訓練されたBERT言語モデルを活用している。
第2のサブタスクでは,プロパガンダ手法の分類のために,事前学習したRoBERTaモデルにコンテキスト特徴を組み込む。
論文 参考訳(メタデータ) (2020-07-21T14:06:59Z) - Cross-media Structured Common Space for Multimedia Event Extraction [82.36301617438268]
マルチメディア文書からイベントとその引数を抽出することを目的とした,MultiMedia Event extract (M2E2) というタスクを導入する。
本稿では,意味情報の構造化表現を共通埋め込み空間にエンコードする新しい手法,Weakly Aligned Structured Embedding (WASE)を提案する。
画像を利用することで、従来のテキストのみの手法よりも21.4%多くのイベント参照を抽出する。
論文 参考訳(メタデータ) (2020-05-05T20:21:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。