論文の概要: Selecting and combining complementary feature representations and
classifiers for hate speech detection
- arxiv url: http://arxiv.org/abs/2201.06721v1
- Date: Tue, 18 Jan 2022 03:46:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 13:44:10.693054
- Title: Selecting and combining complementary feature representations and
classifiers for hate speech detection
- Title(参考訳): ヘイトスピーチ検出のための相補的特徴表現と分類器の選択と組み合わせ
- Authors: Rafael M. O. Cruz and Woshington V. de Sousa and George D. C.
Cavalcanti
- Abstract要約: ヘイトスピーチは、毎日発生する大量のデータのために、ソーシャルネットワークにおいて大きな問題である。
最近の研究は、憎しみのあるポストと単に皮肉や攻撃的な言語を区別するために必要なニュアンスを扱う機械学習(ML)の有用性を示している。
この研究は、複数の特徴抽出手法と異なる分類モデルの組み合わせが必要であると主張している。
- 参考スコア(独自算出の注目度): 6.745479230590518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hate speech is a major issue in social networks due to the high volume of
data generated daily. Recent works demonstrate the usefulness of machine
learning (ML) in dealing with the nuances required to distinguish between
hateful posts from just sarcasm or offensive language. Many ML solutions for
hate speech detection have been proposed by either changing how features are
extracted from the text or the classification algorithm employed. However, most
works consider only one type of feature extraction and classification
algorithm. This work argues that a combination of multiple feature extraction
techniques and different classification models is needed. We propose a
framework to analyze the relationship between multiple feature extraction and
classification techniques to understand how they complement each other. The
framework is used to select a subset of complementary techniques to compose a
robust multiple classifiers system (MCS) for hate speech detection. The
experimental study considering four hate speech classification datasets
demonstrates that the proposed framework is a promising methodology for
analyzing and designing high-performing MCS for this task. MCS system obtained
using the proposed framework significantly outperforms the combination of all
models and the homogeneous and heterogeneous selection heuristics,
demonstrating the importance of having a proper selection scheme. Source code,
figures, and dataset splits can be found in the GitHub repository:
https://github.com/Menelau/Hate-Speech-MCS.
- Abstract(参考訳): 毎日大量のデータが生成されるため、ソーシャルネットワークではヘイトスピーチが大きな問題となっている。
最近の研究は、憎しみのあるポストと単に皮肉や攻撃的な言語を区別するために必要なニュアンスを扱う機械学習(ML)の有用性を示している。
ヘイトスピーチ検出のための多くのMLソリューションは、テキストから特徴を抽出する方法や、採用した分類アルゴリズムを変更することによって提案されている。
しかし、ほとんどの研究は1種類の特徴抽出と分類アルゴリズムのみを考慮する。
この研究は、複数の特徴抽出技法と異なる分類モデルの組み合わせが必要であると主張している。
本稿では,複数の特徴抽出手法と分類手法の関係を分析し,それらの相互補完方法を理解する枠組みを提案する。
このフレームワークは、ヘイトスピーチ検出のための堅牢な多重分類器システム(MCS)を構成するための補完手法のサブセットを選択するために使用される。
4つのヘイト音声分類データセットを考慮した実験により,提案手法が高パフォーマンスmcsの分析と設計に有望な手法であることを実証した。
提案手法を用いて得られたmcsシステムは,全モデルと均質選択ヒューリスティックの組合せを著しく上回り,適切な選択スキームを持つことの重要性を示した。
ソースコード、図、データセットの分割はGitHubリポジトリで見ることができる。
関連論文リスト
- Speaker Embedding-aware Neural Diarization: a Novel Framework for
Overlapped Speech Diarization in the Meeting Scenario [51.5031673695118]
重なり合う音声のダイアリゼーションを単一ラベル予測問題として再構成する。
話者埋め込み認識型ニューラルダイアリゼーション(SEND)システムを提案する。
論文 参考訳(メタデータ) (2022-03-18T06:40:39Z) - Speech Emotion Recognition Using Deep Sparse Auto-Encoder Extreme
Learning Machine with a New Weighting Scheme and Spectro-Temporal Features
Along with Classical Feature Selection and A New Quantum-Inspired Dimension
Reduction Method [3.8073142980733]
音声信号に基づく音声感情認識システム(SER)を提案する。
このシステムは,特徴抽出,特徴選択,最後に特徴分類という3つの段階から構成される。
従来の重み付け法よりも効率的なクラス不均衡に対処する新しい重み付け法も提案されている。
論文 参考訳(メタデータ) (2021-11-13T11:09:38Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Visualizing Classifier Adjacency Relations: A Case Study in Speaker
Verification and Voice Anti-Spoofing [72.4445825335561]
任意のバイナリ分類器によって生成される検出スコアから2次元表現を導出する簡単な方法を提案する。
ランク相関に基づいて,任意のスコアを用いた分類器の視覚的比較を容易にする。
提案手法は完全に汎用的であり,任意の検出タスクに適用可能だが,自動話者検証と音声アンチスプーフィングシステムによるスコアを用いた手法を実証する。
論文 参考訳(メタデータ) (2021-06-11T13:03:33Z) - A concise method for feature selection via normalized frequencies [0.0]
本稿では,普遍的特徴選択のための簡潔な手法を提案する。
提案手法は, フィルタ法とラッパー法を融合して行う。
評価結果から,提案手法は,精度,精度,リコール,Fスコア,AUCの点で,いくつかの最先端技術に優れた性能を示した。
論文 参考訳(メタデータ) (2021-06-10T15:29:54Z) - A study of text representations in Hate Speech Detection [0.0]
ヘイトフル言語に対するEUと米国の現行の法律は、ヘイトスピーチ検出タスクとパイプラインに必要な自動ツールを導いている。
本研究では,Hate音声の自動検出タスクにおいて,複数の分類アルゴリズムと組み合わせた多種多様なテキスト表現手法の性能について検討する。
論文 参考訳(メタデータ) (2021-02-08T20:39:17Z) - Does a Hybrid Neural Network based Feature Selection Model Improve Text
Classification? [9.23545668304066]
関連する特徴を得るためのハイブリッド特徴選択手法を提案する。
次に、特徴選択とニューラルネットワークパイプラインを実装する3つの方法を示す。
また,いくつかのデータセットの精度もわずかに向上した。
論文 参考訳(メタデータ) (2021-01-22T09:12:19Z) - Integrating end-to-end neural and clustering-based diarization: Getting
the best of both worlds [71.36164750147827]
クラスタリングに基づくアプローチでは、xベクトルのような話者埋め込みをクラスタリングすることで、話者ラベルを音声領域に割り当てる。
EEND(End-to-end Neural Diarization)は、ニューラルネットワークを使用してダイアリゼーションラベルを直接予測する。
重なり合う音声と、任意の数の話者を含む長い録音のために、単純だが効果的なハイブリッドダイアリゼーションフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-26T06:33:02Z) - Any-to-Many Voice Conversion with Location-Relative Sequence-to-Sequence
Modeling [61.351967629600594]
本稿では,非並列音声変換手法である非並列音声変換法(seq2seq)を提案する。
本手法では,ボトルネック特徴抽出器(BNE)とセック2セック合成モジュールを組み合わせる。
主観的および主観的評価は,提案手法が自然性と話者類似性の両方において優れた音声変換性能を有することを示す。
論文 参考訳(メタデータ) (2020-09-06T13:01:06Z) - Evaluating the reliability of acoustic speech embeddings [10.5754802112615]
音声埋め込みは可変長音声列の定サイズ音響表現である。
ここでは,ABX識別と平均精度 (MAP) という2つの一般的な指標を,17の埋め込み手法にまたがる5つの言語で体系的に比較する。
ABXとMAPは相互に相関し,周波数推定を行う。
論文 参考訳(メタデータ) (2020-07-27T13:24:09Z) - Rethinking Generative Zero-Shot Learning: An Ensemble Learning
Perspective for Recognising Visual Patches [52.67723703088284]
我々はMPGAN(Multi-patch Generative Adversarial Nets)と呼ばれる新しいフレームワークを提案する。
MPGANは、新しい重み付き投票戦略で、ローカルパッチ機能とラベルが見えないクラスを合成する。
MPGANは最先端の手法よりもはるかに精度が高い。
論文 参考訳(メタデータ) (2020-07-27T05:49:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。