論文の概要: Misogynistic Tweet Detection: Modelling CNN with Small Datasets
- arxiv url: http://arxiv.org/abs/2008.12452v1
- Date: Fri, 28 Aug 2020 02:59:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 01:49:07.069480
- Title: Misogynistic Tweet Detection: Modelling CNN with Small Datasets
- Title(参考訳): misogynistic tweet detection: small datasetsによるcnnのモデリング
- Authors: Md Abul Bashar, Richi Nayak, Nicolas Suzor, Bridget Weir
- Abstract要約: 偽造的虐待を識別する自動化手法は、悪質なツイートに関連するパターン、要因、および応答の有効性の理解を改善することができる。
しかし、ニューラルネットワーク(NN)モデルをラベル付きデータの小さなセットでトレーニングし、偽造的ツイートを検出することは困難である。
これは部分的には、偽造的コンテンツを含むつぶやきの複雑な性質と、NNモデルで学習する必要がある膨大な数のパラメータが原因である。
我々は、畳み込みニューラルネットワーク(CNN)アーキテクチャをカスタマイズし、標準化し、タスク固有のドメインで事前訓練されたワードベクトルを使用できることを示した。
- 参考スコア(独自算出の注目度): 1.452875650827562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online abuse directed towards women on the social media platform Twitter has
attracted considerable attention in recent years. An automated method to
effectively identify misogynistic abuse could improve our understanding of the
patterns, driving factors, and effectiveness of responses associated with
abusive tweets over a sustained time period. However, training a neural network
(NN) model with a small set of labelled data to detect misogynistic tweets is
difficult. This is partly due to the complex nature of tweets which contain
misogynistic content, and the vast number of parameters needed to be learned in
a NN model. We have conducted a series of experiments to investigate how to
train a NN model to detect misogynistic tweets effectively. In particular, we
have customised and regularised a Convolutional Neural Network (CNN)
architecture and shown that the word vectors pre-trained on a task-specific
domain can be used to train a CNN model effectively when a small set of
labelled data is available. A CNN model trained in this way yields an improved
accuracy over the state-of-the-art models.
- Abstract(参考訳): ソーシャルメディアプラットフォームであるTwitterで女性に向けられたオンライン虐待は、近年かなりの注目を集めている。
不正行為を効果的に識別する自動化手法は、持続時間における虐待ツイートに関連するパターン、要因、および応答の有効性の理解を改善することができる。
しかし、ニューラルネットワーク(NN)モデルをラベル付きデータの小さなセットでトレーニングし、偽造的ツイートを検出することは困難である。
これは部分的には、偽造的コンテンツを含むツイートの複雑な性質と、NNモデルで学習する必要がある膨大な数のパラメータが原因である。
我々は,nnモデルを学習して誤用ツイートを効果的に検出する方法を検討するために,一連の実験を行った。
特に,畳み込みニューラルネットワーク(convolutional neural network, cnn)アーキテクチャをカスタマイズし,規則化し,タスク固有のドメインで事前学習した単語ベクトルを用いて,ラベル付きデータの小さなセットが利用可能であればcnnモデルを効果的にトレーニングできることを示した。
この方法でトレーニングされたcnnモデルは、最先端モデルよりも精度が向上する。
関連論文リスト
- Robust Mixture-of-Expert Training for Convolutional Neural Networks [141.3531209949845]
スパースゲート型Mixture of Expert (MoE) は高精度で超効率的なモデル推論を実現するための大きな可能性を実証している。
本稿では、AdvMoEと呼ばれるMoEのための新しいルータ-エキスパート交互学習フレームワークを提案する。
その結果,AdvMoEは従来の高密度CNNに比べて1%の対向ロバスト性向上を実現し,親和性に富むMoEの有効性を享受できることがわかった。
論文 参考訳(メタデータ) (2023-08-19T20:58:21Z) - Transferability of Convolutional Neural Networks in Stationary Learning
Tasks [96.00428692404354]
本稿では,大規模な空間問題に対する畳み込みニューラルネットワーク(CNN)の効率的なトレーニングのための新しいフレームワークを提案する。
このような信号の小さなウィンドウで訓練されたCNNは、再学習することなく、はるかに大きなウィンドウでほぼ性能を発揮することを示す。
以上の結果から,CNNは10人未満の訓練を受けた後,数百人のエージェントによる問題に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T13:51:45Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Trace and Detect Adversarial Attacks on CNNs using Feature Response Maps [0.3437656066916039]
畳み込みニューラルネットワーク(CNN)に対する敵対的攻撃
本研究では,攻撃防止のための新たな攻撃事例検出手法を提案する。
特徴応答における逆方向の摂動をトラッキングすることで、平均的な局所空間エントロピーを用いた自動検出が可能となる。
論文 参考訳(メタデータ) (2022-08-24T11:05:04Z) - Controlled-rearing studies of newborn chicks and deep neural networks [0.0]
畳み込みニューラルネットワーク(CNN)は、困難なオブジェクト認識タスクにおいて、人間レベルのパフォーマンスを達成することができる。
CNNは「データ空腹」と考えられており、オブジェクト認識のための正確なモデルを開発するために大量のトレーニングデータを必要とする。
この批判は、視覚発達のモデルとしてCNNを使用するという約束に挑戦する。
論文 参考訳(メタデータ) (2021-12-12T00:45:07Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Graph Neural Networks with Continual Learning for Fake News Detection
from Social Media [18.928184473686567]
ソーシャルメディア上での偽ニュースと実ニュースの伝播パターンを区別するためにグラフニューラルネットワーク(GNN)を用いる。
テキスト情報に頼らずに、GNNがテキスト情報なしで同等または優れたパフォーマンスを達成できることが示される。
本稿では,GNNを漸進的に訓練するための連続学習技術を用いて,既存のデータセットと新しいデータセットの両方でバランスの取れた性能を実現する手法を提案する。
論文 参考訳(メタデータ) (2020-07-07T10:04:50Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。