論文の概要: Sexism Identification in Tweets and Gabs using Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2111.03612v1
- Date: Fri, 5 Nov 2021 16:57:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-08 14:19:54.243666
- Title: Sexism Identification in Tweets and Gabs using Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークを用いたツイートおよびgabにおける性差別同定
- Authors: Amikul Kalra, Arkaitz Zubiaga
- Abstract要約: 本稿では,さまざまなディープニューラルネットワークモデルアーキテクチャを用いて,テキストにおける性差別の分類について検討する。
IberLEF 2021 の Social neTworks (EXIST) タスクにおける sexism Identification から、つぶやきとギャブのデータセットに二項性差別の分類を行う。
これらのモデルは、BERTとマルチフィルタCNNモデルを使用した最高のパフォーマンスで、競合のモデルと比較すると、比較的パフォーマンスがよい。
- 参考スコア(独自算出の注目度): 6.531659195805749
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Through anonymisation and accessibility, social media platforms have
facilitated the proliferation of hate speech, prompting increased research in
developing automatic methods to identify these texts. This paper explores the
classification of sexism in text using a variety of deep neural network model
architectures such as Long-Short-Term Memory (LSTMs) and Convolutional Neural
Networks (CNNs). These networks are used in conjunction with transfer learning
in the form of Bidirectional Encoder Representations from Transformers (BERT)
and DistilBERT models, along with data augmentation, to perform binary and
multiclass sexism classification on the dataset of tweets and gabs from the
sEXism Identification in Social neTworks (EXIST) task in IberLEF 2021. The
models are seen to perform comparatively to those from the competition, with
the best performances seen using BERT and a multi-filter CNN model. Data
augmentation further improves these results for the multi-class classification
task. This paper also explores the errors made by the models and discusses the
difficulty in automatically classifying sexism due to the subjectivity of the
labels and the complexity of natural language used in social media.
- Abstract(参考訳): 匿名化とアクセシビリティを通じて、ソーシャルメディアプラットフォームはヘイトスピーチの拡散を促進し、これらのテキストを識別する自動手法の開発において研究が進められている。
本稿では,long-short-term memory (lstms) や convolutional neural networks (cnns) などの深層ニューラルネットワークモデルアーキテクチャを用いて,テキストにおける性差別の分類について検討する。
これらのネットワークは、Transformers (BERT) と DistilBERT モデルによる双方向エンコーダ表現(英語版)という形式でのトランスファーラーニングと組み合わせて、IberLEF 2021 の Social neTworks (EXIST) タスクにおける sEXism Identification から、つぶやきとガブのデータセットのバイナリとマルチクラスの性差別分類を行う。
これらのモデルは、bertとマルチフィルタcnnモデルを使った最高のパフォーマンスで、競争相手と比較してパフォーマンスが向上している。
データ拡張は、マルチクラス分類タスクのこれらの結果をさらに改善する。
また,これらのモデルによる誤りを考察し,ラベルの主観性やソーシャルメディアで使用される自然言語の複雑さによる性差別の自動分類の難しさについて論じた。
関連論文リスト
- Convolutional Neural Networks for Sentiment Analysis on Weibo Data: A
Natural Language Processing Approach [0.228438857884398]
本研究では,Weiboの119,988ツイートのデータセット上で,畳み込みニューラルネットワーク(CNN)を用いた感情分析の複雑な課題に対処する。
CNNに基づくモデルを用いて,特徴抽出に単語埋め込みを活用し,感情分類を行う訓練を行った。
このモデルは、テストセットで平均約0.73のマクロ平均F1スコアを達成し、正、中、負の感情でバランスの取れた性能を示した。
論文 参考訳(メタデータ) (2023-07-13T03:02:56Z) - Initial Study into Application of Feature Density and
Linguistically-backed Embedding to Improve Machine Learning-based
Cyberbullying Detection [54.83707803301847]
この研究は、自動サイバーバブル検出に関するKaggleコンペティションで提供されたFormspringデータセットで実施された。
本研究は,サイバブリング検出におけるニューラルネットワークの有効性と分類器性能と特徴密度の相関性を確認した。
論文 参考訳(メタデータ) (2022-06-04T03:17:15Z) - Identifying and Categorizing Offensive Language in Social Media [0.0]
本研究は,SemEval 2019 Task 6: OffensEval用に構築された分類システムについて述べる。
私たちは、最良の結果を得るために、機械学習とディープラーニングモデルとデータ前処理とサンプリングテクニックをトレーニングしました。
論文 参考訳(メタデータ) (2021-04-10T22:53:43Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Leveraging Multi-domain, Heterogeneous Data using Deep Multitask
Learning for Hate Speech Detection [21.410160004193916]
畳み込みニューラルネットワークに基づくマルチタスク学習モデル(MTL)フットノートコードを提案し,複数のソースからの情報を活用する。
3つのベンチマークデータセットで実施した実証分析は,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2021-03-23T09:31:01Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z) - PIN: A Novel Parallel Interactive Network for Spoken Language
Understanding [68.53121591998483]
既存の RNN ベースのアプローチでは、ID と SF のタスクは、それらの間の相関情報を利用するために、しばしば共同でモデル化される。
SNIPSとATISという2つのベンチマークデータセットによる実験は、我々のアプローチの有効性を実証している。
さらに,事前学習した言語モデルBERTが生成した発話の特徴埋め込みを用いて,提案手法はすべての比較手法の中で最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-09-28T15:59:31Z) - Identity-Based Patterns in Deep Convolutional Networks: Generative
Adversarial Phonology and Reduplication [0.0]
我々は、CNNが情報データを生成するという要求から有意義な表現を学習する、ciwGANアーキテクチャのBeguvsを使用している。
そこで本研究では,4つの生成テストに基づいて学習したWug-test CNNの手法を提案する。
論文 参考訳(メタデータ) (2020-09-13T23:12:49Z) - Stochastic encoding of graphs in deep learning allows for complex
analysis of gender classification in resting-state and task functional brain
networks from the UK Biobank [0.13706331473063876]
我々は,機能的コネクトームを性別別に分類するために,CNNのアンサンブルに符号化手法を導入する。
課題と休息状態に関わる3つの脳ネットワークとその相互作用の塩分濃度を測定した。
論文 参考訳(メタデータ) (2020-02-25T15:10:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。