論文の概要: An Effective, Robust and Fairness-aware Hate Speech Detection Framework
- arxiv url: http://arxiv.org/abs/2409.17191v1
- Date: Wed, 25 Sep 2024 07:01:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 16:40:36.770851
- Title: An Effective, Robust and Fairness-aware Hate Speech Detection Framework
- Title(参考訳): 効果的でロバストで公平なヘイトスピーチ検出フレームワーク
- Authors: Guanyi Mou, Kyumin Lee
- Abstract要約: 既存のヘイトスピーチ検出手法には、いくつかの面で制限がある。
我々は,データ拡張,公平性,不確実性を考慮した新しいフレームワークを設計する。
本モデルは,攻撃シナリオと攻撃シナリオの両方で,最先端の8つの手法より優れている。
- 参考スコア(独自算出の注目度): 2.9927562390637394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the widespread online social networks, hate speeches are spreading
faster and causing more damage than ever before. Existing hate speech detection
methods have limitations in several aspects, such as handling data
insufficiency, estimating model uncertainty, improving robustness against
malicious attacks, and handling unintended bias (i.e., fairness). There is an
urgent need for accurate, robust, and fair hate speech classification in online
social networks. To bridge the gap, we design a data-augmented, fairness
addressed, and uncertainty estimated novel framework. As parts of the
framework, we propose Bidirectional Quaternion-Quasi-LSTM layers to balance
effectiveness and efficiency. To build a generalized model, we combine five
datasets collected from three platforms. Experiment results show that our model
outperforms eight state-of-the-art methods under both no attack scenario and
various attack scenarios, indicating the effectiveness and robustness of our
model. We share our code along with combined dataset for better future research
- Abstract(参考訳): オンラインソーシャルネットワークの普及に伴い、ヘイトスピーチは急速に広まり、これまで以上にダメージを与えている。
既存のヘイトスピーチ検出手法には、データ不足の処理、モデルの不確実性の推定、悪意のある攻撃に対する堅牢性の改善、意図しないバイアス(すなわち公正性)の処理など、いくつかの面で制限がある。
オンラインソーシャルネットワークでは、正確で堅牢で公正なヘイトスピーチ分類が緊急に必要である。
このギャップを埋めるために、我々は、データ拡張された、公平で、不確実な推定された新しいフレームワークを設計する。
フレームワークの一部として、効率と効率のバランスをとるために、双方向のQuasi-LSTM層を提案する。
一般化されたモデルを構築するために、3つのプラットフォームから収集された5つのデータセットを組み合わせる。
実験結果から,本モデルが攻撃シナリオと攻撃シナリオの両方で8つの最先端手法より優れており,本モデルの有効性とロバスト性を示している。
将来の研究のために、コードと組み合わせたデータセットを共有します
関連論文リスト
- A Target-Aware Analysis of Data Augmentation for Hate Speech Detection [3.858155067958448]
ヘイトスピーチは、ソーシャルネットワークの普及によって引き起こされる主要な脅威の1つだ。
本稿では,既存のデータを生成言語モデルで拡張し,ターゲットの不均衡を低減する可能性を検討する。
起源、宗教、障害などのヘイトカテゴリーでは、トレーニングのための強化データを用いたヘイトスピーチ分類は、拡張ベースラインが存在しない場合、10%以上のF1が向上する。
論文 参考訳(メタデータ) (2024-10-10T15:46:27Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Multi-granularity Textual Adversarial Attack with Behavior Cloning [4.727534308759158]
我々は,被害者モデルに対するクエリが少なく,高品質な対数サンプルを生成するためのマルチグラムYアタックモデルMAYAを提案する。
2つの異なるブラックボックス攻撃設定と3つのベンチマークデータセットでBiLSTM,BERT,RoBERTaを攻撃し、攻撃モデルを評価するための総合的な実験を行った。
論文 参考訳(メタデータ) (2021-09-09T15:46:45Z) - Evaluating Deception Detection Model Robustness To Linguistic Variation [10.131671217810581]
認知ニュース検出の設定における言語的変化に対するモデル堅牢性の解析を提案する。
2つの予測タスクを検討し,3つの最先端組込みを比較して,モデル性能の一貫した傾向を強調する。
キャラクタあるいは混合アンサンブルモデルが最も効果的な防御であり,キャラクタ摂動に基づく攻撃戦術がより成功していることがわかった。
論文 参考訳(メタデータ) (2021-04-23T17:25:38Z) - Leveraging cross-platform data to improve automated hate speech
detection [0.0]
ヘイトスピーチ検出のための既存のアプローチは、単一のソーシャルメディアプラットフォームを独立して重視している。
本稿では,異なるプラットフォームからの複数のデータセットと分類モデルを活用するヘイトスピーチを検出するための,クロスプラットフォームアプローチを提案する。
このアプローチが既存のモデルより優れていることを実証し、新しいソーシャルメディアプラットフォームからのメッセージでテストすると、優れたパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2021-02-09T15:52:34Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - From Sound Representation to Model Robustness [82.21746840893658]
本研究では, 環境音の標準的な表現(スペクトログラム)が, 被害者の残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
3つの環境音響データセットの様々な実験から、ResNet-18モデルは、他のディープラーニングアーキテクチャよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-27T17:30:49Z) - Triple Wins: Boosting Accuracy, Robustness and Efficiency Together by
Enabling Input-Adaptive Inference [119.19779637025444]
深層ネットワークは、(クリーンな自然画像の場合)正確さと(敵対的な摂動画像の場合)頑健さの相違に直面することを最近提案された。
本稿では,入力適応推論に関連するマルチエグジットネットワークについて検討し,モデル精度,ロバスト性,効率の最適化において「スイートポイント」を達成する上での強い期待を示す。
論文 参考訳(メタデータ) (2020-02-24T00:40:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。