論文の概要: AbuseAnalyzer: Abuse Detection, Severity and Target Prediction for Gab
Posts
- arxiv url: http://arxiv.org/abs/2010.00038v2
- Date: Thu, 8 Oct 2020 17:42:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 00:13:36.841081
- Title: AbuseAnalyzer: Abuse Detection, Severity and Target Prediction for Gab
Posts
- Title(参考訳): AbuseAnalyzer:ガブポストの不正検出、重症度、ターゲット予測
- Authors: Mohit Chandra, Ashwin Pathak, Eesha Dutta, Paryul Jain, Manish Gupta,
Manish Shrivastava, Ponnurangam Kumaraguru
- Abstract要約: 本稿では, 虐待, 重大さ, 虐待行為のターゲットの観点から, オンライン虐待に着目した 7601 投稿を Gab から提供した。
また,これらの課題に対処するシステムを提案し,乱用の有無を80%,虐待対象予測を82%,虐待重症度予測を65%とした。
- 参考スコア(独自算出の注目度): 19.32095911241636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While extensive popularity of online social media platforms has made
information dissemination faster, it has also resulted in widespread online
abuse of different types like hate speech, offensive language, sexist and
racist opinions, etc. Detection and curtailment of such abusive content is
critical for avoiding its psychological impact on victim communities, and
thereby preventing hate crimes. Previous works have focused on classifying user
posts into various forms of abusive behavior. But there has hardly been any
focus on estimating the severity of abuse and the target. In this paper, we
present a first of the kind dataset with 7601 posts from Gab which looks at
online abuse from the perspective of presence of abuse, severity and target of
abusive behavior. We also propose a system to address these tasks, obtaining an
accuracy of ~80% for abuse presence, ~82% for abuse target prediction, and ~65%
for abuse severity prediction.
- Abstract(参考訳): オンラインソーシャルメディアプラットフォームの広範な普及により、情報の拡散は速くなっているが、ヘイトスピーチ、攻撃的言語、セクシスト、人種差別的意見など、さまざまなタイプのオンライン乱用も広まっている。
このような乱用コンテンツの検出と削減は、被害者コミュニティに対する心理的影響を回避し、ヘイトクライムの予防に重要である。
以前の作品は、ユーザー投稿をさまざまな虐待行動の形式に分類することに焦点を当てていた。
しかし、虐待の深刻さとターゲットを見積もることにはほとんど焦点が当てられていない。
本稿では,gabの投稿7601件を対象に,虐待の有無,重大性,虐待行為のターゲットなどの観点から,インターネット上の虐待を考察したデータセットを初めて紹介する。
また,これらの課題に対処するシステムを提案し,乱用の有無の80%,乱用目標予測の82%,乱用被害予測の65%の精度を得た。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Journalists are most likely to receive abuse: Analysing online abuse of UK public figures across sport, politics, and journalism on Twitter [0.0]
3つのドメインにまたがる4,602人の英国公務員を対象に,455万ツイートの新しいデータセットの解析を行った。
我々は、国会議員が絶対的に虐待を受けやすいことを示すが、ジャーナリストは、他の要因をコントロールした後、虐待を受ける可能性が最も高いことを示している。
また、より顕著なオンラインの存在と男性であることは、すべての3つのドメインでより高いレベルの虐待を示唆していることもわかりました。
論文 参考訳(メタデータ) (2024-09-05T09:27:56Z) - Exploratory Data Analysis on Code-mixed Misogynistic Comments [0.0]
我々は、ミックスコードHinglishでYouTubeコメントの新しいデータセットを提示する。
これらのコメントは「ミソジニスト」と「非ミソジニスト」とラベル付けされている。
論文 参考訳(メタデータ) (2024-03-09T23:21:17Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Explainable Abuse Detection as Intent Classification and Slot Filling [66.80201541759409]
我々は、システムがデータ検査だけで乱用を構成する事象を確実に学習できるという非現実的な期待を捨て、政策対応による悪用検出の概念を導入する。
目的分類とスロットフィリングのためのアーキテクチャは、モデル決定の根拠を提供しながら、悪用検出にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-10-06T03:33:30Z) - Enriching Abusive Language Detection with Community Context [0.3708656266586145]
叙述表現の使用は、良心的または活発な権限を与えることができる。
乱用検出のモデルは、これらの表現を軽蔑的で不注意に、疎外されたグループが持つ生産的な会話を検閲するものとして誤分類する。
本稿では,コミュニティの文脈が乱用言語検出における分類結果をどのように改善するかを強調した。
論文 参考訳(メタデータ) (2022-06-16T20:54:02Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - The User behind the Abuse: A Position on Ethics and Explainability [25.791014642037585]
ユーザとオンラインコミュニティのモデリングが乱用検知に果たす役割について論じる。
その後、ユーザー情報とコミュニティ情報を取り入れる倫理的課題を探求します。
説明可能な方法が示すべき特性について提案する。
論文 参考訳(メタデータ) (2021-03-31T16:20:37Z) - Detecting Harmful Content On Online Platforms: What Platforms Need Vs.
Where Research Efforts Go [44.774035806004214]
オンラインプラットフォーム上の有害コンテンツには、ヘイトスピーチ、攻撃的言語、いじめとハラスメント、誤情報、スパム、暴力、グラフィックコンテンツ、性的虐待、自己被害など、さまざまな形態がある。
オンラインプラットフォームは、そのようなコンテンツを、社会的危害を抑えるため、法律に従うために、ユーザーのためにより包括的な環境を作るために、緩和しようとしている。
現在、オンラインプラットフォームが抑制しようとしている有害なコンテンツの種類と、そのようなコンテンツを自動的に検出する研究努力との間には、隔たりがある。
論文 参考訳(メタデータ) (2021-02-27T08:01:10Z) - ETHOS: an Online Hate Speech Detection Dataset [6.59720246184989]
本稿では,YouTube と Reddit のコメントに基づいて,Final-Eight クラウドソーシングプラットフォームを用いて検証した,バイナリとマルチラベルの2種類のテキストデータセットである 'ETHOS' を紹介する。
我々の重要な前提は、そのような時間のかかるプロセスから少量のラベル付きデータを入手しても、調査対象の素材でヘイトスピーチの発生を保証できるということである。
論文 参考訳(メタデータ) (2020-06-11T08:59:57Z) - Information Consumption and Social Response in a Segregated Environment:
the Case of Gab [74.5095691235917]
この研究は、COVID-19トピックに関するGab内のインタラクションパターンの特徴を提供する。
疑わしい、信頼できるコンテンツに対する社会的反応には、統計的に強い違いはない。
本研究は,協調した不正確な行動の理解と情報操作の早期警戒に関する知見を提供する。
論文 参考訳(メタデータ) (2020-06-03T11:34:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。