論文の概要: Abusive Language Detection and Characterization of Twitter Behavior
- arxiv url: http://arxiv.org/abs/2009.14261v1
- Date: Sat, 26 Sep 2020 07:38:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 09:01:59.374709
- Title: Abusive Language Detection and Characterization of Twitter Behavior
- Title(参考訳): 乱用的言語検出とtwitter行動のキャラクタリゼーション
- Authors: Dincy Davis, Reena Murali, Remesh Babu
- Abstract要約: 目的は、Twitter上での虐待行為のさまざまな形態に焦点を当て、スピーチが虐待的かどうかを検出することである。
CNNとリカレントニューラルネットワーク(Recurrent Neural Network, RNN)の手法を用いて, ソーシャルメディアにおける様々な虐待行動を比較した。
提案したBiRNNは、自動乱用音声検出のためのより優れたディープラーニングモデルである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, abusive language detection in online content is performed using
Bidirectional Recurrent Neural Network (BiRNN) method. Here the main objective
is to focus on various forms of abusive behaviors on Twitter and to detect
whether a speech is abusive or not. The results are compared for various
abusive behaviors in social media, with Convolutional Neural Netwrok (CNN) and
Recurrent Neural Network (RNN) methods and proved that the proposed BiRNN is a
better deep learning model for automatic abusive speech detection.
- Abstract(参考訳): 本研究では,双方向リカレントニューラルネットワーク(birnn)を用いて,オンラインコンテンツにおける乱用言語検出を行う。
ここでの主な目的は、Twitter上での様々な虐待行動に注目し、スピーチが虐待的かどうかを検出することである。
本研究では,畳み込み型ニューラルネットルーク(cnn)とリカレントニューラルネットワーク(rnn)を用いて,ソーシャルメディアにおける各種乱用行動の比較を行った。
関連論文リスト
- Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Explainable Identification of Hate Speech towards Islam using Graph Neural Networks [0.0]
本研究では,イスラム教に対するヘイトスピーチの特定と説明にグラフニューラルネットワーク(GNN)を用いた新しいパラダイムを提案する。
本モデルでは,NLP生成した単語の埋め込みによってテキストを接続することで,ヘイトスピーチの文脈やパターンを理解するために,GNNを利用する。
これは、オンラインヘイトスピーチと戦い、より安全で包括的なオンライン環境を育むGNNの可能性を強調している。
論文 参考訳(メタデータ) (2023-11-02T04:01:04Z) - Vulgar Remarks Detection in Chittagonian Dialect of Bangla [1.1049608786515839]
本研究では,教師付きMLとディープラーニングアルゴリズムを用いてソーシャルメディアにおける下品な発言を検出することに焦点を当てた。
ロジスティック回帰は有望な精度(0.91)を達成し、Word2vecとfastTexを使った単純なRNNはより低い精度(0.84-0.90)を達成し、NNアルゴリズムがより多くのデータを必要とする問題を強調した。
論文 参考訳(メタデータ) (2023-08-29T17:19:32Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Improved two-stage hate speech classification for twitter based on Deep
Neural Networks [0.0]
ヘイトスピーチ(Hate speech)は、虐待的な言葉の使用を含む、オンラインハラスメントの一種である。
この研究で提案するモデルは、LSTMニューラルネットワークアーキテクチャに基づく既存のアプローチの拡張である。
本研究は,16kツイートの公開コーパスで評価された2段階目の提案手法の性能比較を含む。
論文 参考訳(メタデータ) (2022-06-08T20:57:41Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Controlled Caption Generation for Images Through Adversarial Attacks [85.66266989600572]
画像特徴抽出には畳み込みニューラルネットワーク(CNN)、キャプション生成にはリカレントニューラルネットワーク(RNN)が使用される。
特に、その後の再帰的ネットワークに供給される視覚エンコーダの隠蔽層に対する攻撃について検討する。
本稿では、CNNの内部表現を模倣したニューラルネットワークキャプションの逆例を作成するためのGANベースのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-07T07:22:41Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Misogynistic Tweet Detection: Modelling CNN with Small Datasets [1.452875650827562]
偽造的虐待を識別する自動化手法は、悪質なツイートに関連するパターン、要因、および応答の有効性の理解を改善することができる。
しかし、ニューラルネットワーク(NN)モデルをラベル付きデータの小さなセットでトレーニングし、偽造的ツイートを検出することは困難である。
これは部分的には、偽造的コンテンツを含むつぶやきの複雑な性質と、NNモデルで学習する必要がある膨大な数のパラメータが原因である。
我々は、畳み込みニューラルネットワーク(CNN)アーキテクチャをカスタマイズし、標準化し、タスク固有のドメインで事前訓練されたワードベクトルを使用できることを示した。
論文 参考訳(メタデータ) (2020-08-28T02:59:22Z) - Joint Modelling of Emotion and Abusive Language Detection [26.18171134454037]
マルチタスク学習フレームワークを用いて,感情と虐待的言語検出の最初のジョイントモデルを提案する。
その結果、感情的特徴を取り入れることで、データセット間での悪用検出性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2020-05-28T14:08:40Z) - Characterizing Speech Adversarial Examples Using Self-Attention U-Net
Enhancement [102.48582597586233]
本稿では,U-Net$_At$という,U-Netに基づくアテンションモデルを提案する。
対戦型音声アタックを用いた自動音声認識(ASR)タスクの実験を行った。
論文 参考訳(メタデータ) (2020-03-31T02:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。