論文の概要: Understanding and Detecting Dangerous Speech in Social Media
- arxiv url: http://arxiv.org/abs/2005.06608v1
- Date: Mon, 4 May 2020 09:42:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 00:19:05.212269
- Title: Understanding and Detecting Dangerous Speech in Social Media
- Title(参考訳): ソーシャルメディアにおける危険音声の理解と検出
- Authors: Ali Alshehri, El Moatez Billah Nagoudi, Muhammad Abdul-Mageed
- Abstract要約: オンライン環境における物理的な脅威のような危険な言語は、やや珍しいが、それでも非常に重要である。
危険音声のためのラベル付きデータセットを構築し、危険コンテンツを検出するための高効率なモデルを開発する。
我々の最良のモデルは59.60%のマクロF1で動作し、競合するベースラインを大幅に上回っている。
- 参考スコア(独自算出の注目度): 9.904746542801837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media communication has become a significant part of daily activity in
modern societies. For this reason, ensuring safety in social media platforms is
a necessity. Use of dangerous language such as physical threats in online
environments is a somewhat rare, yet remains highly important. Although several
works have been performed on the related issue of detecting offensive and
hateful language, dangerous speech has not previously been treated in any
significant way. Motivated by these observations, we report our efforts to
build a labeled dataset for dangerous speech. We also exploit our dataset to
develop highly effective models to detect dangerous content. Our best model
performs at 59.60% macro F1, significantly outperforming a competitive
baseline.
- Abstract(参考訳): ソーシャルメディアのコミュニケーションは、現代社会における日々の活動の重要な部分となっている。
そのため、ソーシャルメディアプラットフォームにおける安全性の確保が不可欠である。
オンライン環境における物理的な脅威のような危険な言語の使用は稀だが、それでも非常に重要である。
攻撃的・憎悪的な言語を検知する関連問題に関して、いくつかの研究がなされているが、これまで、危険なスピーチは重要な方法で扱われていなかった。
これらの観察に動機づけられ,危険な発話のためのラベル付きデータセットの構築に向けた取り組みを報告した。
また、我々のデータセットを利用して、危険なコンテンツを検出するための非常に効果的なモデルを構築します。
我々の最良のモデルは59.60%のマクロF1で動作し、競争ベースラインを大幅に上回っている。
関連論文リスト
- SWE2: SubWord Enriched and Significant Word Emphasized Framework for Hate Speech Detection [3.0460060805145517]
本稿では,メッセージの内容のみに依存し,ヘイトスピーチを自動的に識別するSWE2という新しいヘイトスピーチ検出フレームワークを提案する。
実験結果から,提案モデルでは0.975の精度と0.953のマクロF1が達成され,最先端の7つのベースラインを上回った。
論文 参考訳(メタデータ) (2024-09-25T07:05:44Z) - Towards Probing Speech-Specific Risks in Large Multimodal Models: A Taxonomy, Benchmark, and Insights [50.89022445197919]
本研究は,8つのリスクカテゴリーを敵意(悪意的皮肉と脅し),悪意的模倣(年齢,性別,民族),ステレオタイプ的バイアス(年齢,性別,民族)を対象とする音声特異的リスク分類法を提案する。
分類に基づいて,これらのリスクのカテゴリを検出するために,現在のLMM能力を評価するための小規模データセットを作成する。
論文 参考訳(メタデータ) (2024-06-25T10:08:45Z) - MetaHate: A Dataset for Unifying Efforts on Hate Speech Detection [2.433983268807517]
ヘイトスピーチは、標的となる個人やコミュニティに対して、社会的、心理的、時には身体的脅威を生じさせる。
この現象に対処するための現在の計算言語学的アプローチは、トレーニングのためのラベル付きソーシャルメディアデータセットに依存している。
我々は60以上のデータセットを精査し、その関連するものをMetaHateに選択的に統合しました。
我々の発見は、既存のデータセットのより深い理解に寄与し、より堅牢で適応可能なモデルをトレーニングするための道を開いた。
論文 参考訳(メタデータ) (2024-01-12T11:54:53Z) - Developing Linguistic Patterns to Mitigate Inherent Human Bias in
Offensive Language Detection [1.6574413179773761]
本稿では,ラベル付けプロセスにおけるバイアスを低減するための言語データ拡張手法を提案する。
このアプローチは、複数の言語にわたる攻撃的な言語分類タスクを改善する可能性がある。
論文 参考訳(メタデータ) (2023-12-04T10:20:36Z) - Countering Misinformation via Emotional Response Generation [15.383062216223971]
ソーシャルメディアプラットフォーム(SMP)における誤情報拡散は、公衆衛生、社会的結束、民主主義に重大な危険をもたらす。
これまでの研究では、社会的訂正が誤情報を抑制する効果的な方法であることが示された。
約1万のクレーム応答対からなる最初の大規模データセットであるVerMouthを提案する。
論文 参考訳(メタデータ) (2023-11-17T15:37:18Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Certifiably Robust Policy Learning against Adversarial Communication in
Multi-agent Systems [51.6210785955659]
多くのマルチエージェント強化学習(MARL)では,エージェントが情報を共有し,適切な判断を下す上でコミュニケーションが重要である。
しかし、ノイズや潜在的な攻撃者が存在する現実世界のアプリケーションに訓練された通信エージェントを配置すると、通信ベースのポリシーの安全性は過小評価されている深刻な問題となる。
本研究では,攻撃者が任意の$CfracN-12$エージェントから被害者エージェントへの通信を任意に変更できる,$N$エージェントを備えた環境を検討する。
論文 参考訳(メタデータ) (2022-06-21T07:32:18Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - ETHOS: an Online Hate Speech Detection Dataset [6.59720246184989]
本稿では,YouTube と Reddit のコメントに基づいて,Final-Eight クラウドソーシングプラットフォームを用いて検証した,バイナリとマルチラベルの2種類のテキストデータセットである 'ETHOS' を紹介する。
我々の重要な前提は、そのような時間のかかるプロセスから少量のラベル付きデータを入手しても、調査対象の素材でヘイトスピーチの発生を保証できるということである。
論文 参考訳(メタデータ) (2020-06-11T08:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。