論文の概要: Text Classification of Manifestos and COVID-19 Press Briefings using
BERT and Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2010.10267v2
- Date: Mon, 2 Nov 2020 14:53:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 06:01:38.588648
- Title: Text Classification of Manifestos and COVID-19 Press Briefings using
BERT and Convolutional Neural Networks
- Title(参考訳): BERTと畳み込みニューラルネットワークを用いたマニフェストのテキスト分類とCOVID-19プレスブリーフィング
- Authors: Kakia Chatsiou
- Abstract要約: 政治宣言の注釈付きコーパスを用いた文レベルの政治談話分類器を構築した。
ローカルトピックであるCNN(ConvolutionalNeural Network)をトレーニングするために,手動で注釈付き政治マニフェストをトレーニングデータとして使用する。
本研究では、事前学習した分類器を用いて、追加の訓練をすることなく、異なる政治文書の自動分類を行うことができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We build a sentence-level political discourse classifier using existing human
expert annotated corpora of political manifestos from the Manifestos Project
(Volkens et al., 2020a) and applying them to a corpus ofCOVID-19Press Briefings
(Chatsiou, 2020). We use manually annotated political manifestos as training
data to train a local topic ConvolutionalNeural Network (CNN) classifier; then
apply it to the COVID-19PressBriefings Corpus to automatically classify
sentences in the test corpus.We report on a series of experiments with CNN
trained on top of pre-trained embeddings for sentence-level classification
tasks. We show thatCNN combined with transformers like BERT outperforms CNN
combined with other embeddings (Word2Vec, Glove, ELMo) and that it is possible
to use a pre-trained classifier to conduct automatic classification on
different political texts without additional training.
- Abstract(参考訳): 我々は、既存の人間専門家によるマニュフェストプロジェクト(volkens et al., 2020a)からの政治的マニフェストのコーパスを注釈付けした文レベルの政治的談話分類器を構築し、それらをcovid-19press briefings(chatsiou, 2020)のコーパスに適用する。
我々は、手動でアノテートされた政治マニフェストを訓練データとして、ローカルトピックのCNN(ConvolutionalNeural Network)分類器をトレーニングし、それをCOVID-19PressBriefings Corpusに適用して、テストコーパス内の文を自動的に分類する。
CNNがBERTのような変換器と組み合わせることで、CNNと他の埋め込み(Word2Vec、Glove、ELMo)を併用し、事前学習した分類器を用いて、追加の訓練をすることなく、異なる政治的テキストの自動分類を行うことができることを示す。
関連論文リスト
- A Novel Cartography-Based Curriculum Learning Method Applied on RoNLI: The First Romanian Natural Language Inference Corpus [71.77214818319054]
自然言語推論は自然言語理解のプロキシである。
ルーマニア語のNLIコーパスは公開されていない。
58Kの訓練文対からなるルーマニア初のNLIコーパス(RoNLI)を紹介する。
論文 参考訳(メタデータ) (2024-05-20T08:41:15Z) - Empowering Interdisciplinary Research with BERT-Based Models: An Approach Through SciBERT-CNN with Topic Modeling [0.0]
本稿では,SciBERTモデルとCNNを用いて,学術論文を体系的に分類する手法を提案する。
CNNは、畳み込みとプーリングを使用して特徴抽出を強化し、次元を減少させる。
論文 参考訳(メタデータ) (2024-04-16T05:21:47Z) - A New Korean Text Classification Benchmark for Recognizing the Political
Intents in Online Newspapers [6.633601941627045]
本稿では,様々な記事を含む韓国語テキスト分類データセットを提案する。
我々のデータセットには、韓国で最も代表的な新聞組織の6つの政治部門から、政治的意図を含む可能性のある12,000のニュース記事が含まれています。
我々の知る限り、我々の論文は韓国で最も大規模なニュースデータセットであり、長いテキストとマルチタスクの分類問題に対処する。
論文 参考訳(メタデータ) (2023-11-03T04:59:55Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - Like a Good Nearest Neighbor: Practical Content Moderation and Text
Classification [66.02091763340094]
LaGoNN(Good Nearest Neighbor)は、学習可能なパラメータを導入することなく、隣人の情報で入力テキストを変更するSetFitの変更である。
LaGoNNは望ましくないコンテンツやテキスト分類のフラグ付けに有効であり、SetFitのパフォーマンスを改善する。
論文 参考訳(メタデータ) (2023-02-17T15:43:29Z) - Offensive Language and Hate Speech Detection with Deep Learning and
Transfer Learning [1.77356577919977]
我々は、ツイートを自動的に3つのクラスに分類するアプローチを提案する。
我々は、テキスト分類、感情チェック、テキストデータ拡張を含む主要な機能を含むクラスモジュールを作成する。
論文 参考訳(メタデータ) (2021-08-06T20:59:47Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - LTIatCMU at SemEval-2020 Task 11: Incorporating Multi-Level Features for
Multi-Granular Propaganda Span Identification [70.1903083747775]
本稿では,新聞記事におけるプロパガンダ・スパン識別の課題について述べる。
本稿では,BERT-BiLSTMに基づくプロパガンダ分類モデルを提案する。
論文 参考訳(メタデータ) (2020-08-11T16:14:47Z) - SeMemNN: A Semantic Matrix-Based Memory Neural Network for Text
Classification [15.111940377403252]
本稿では,エンド・ツー・エンドの学習方法を用いて,セマンティック・マトリックス・ベースのメモリ・ニューラル・ネットワークのための5つの異なる構成を提案する。
提案手法を2つのニュース記事のコーパス(AGニュース, Sogouニュース)で評価する。
論文 参考訳(メタデータ) (2020-03-04T02:00:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。