論文の概要: AbuseAnalyzer: Abuse Detection, Severity and Target Prediction for Gab
Posts
- arxiv url: http://arxiv.org/abs/2010.00038v2
- Date: Thu, 8 Oct 2020 17:42:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 00:13:36.841081
- Title: AbuseAnalyzer: Abuse Detection, Severity and Target Prediction for Gab
Posts
- Title(参考訳): AbuseAnalyzer:ガブポストの不正検出、重症度、ターゲット予測
- Authors: Mohit Chandra, Ashwin Pathak, Eesha Dutta, Paryul Jain, Manish Gupta,
Manish Shrivastava, Ponnurangam Kumaraguru
- Abstract要約: 本稿では, 虐待, 重大さ, 虐待行為のターゲットの観点から, オンライン虐待に着目した 7601 投稿を Gab から提供した。
また,これらの課題に対処するシステムを提案し,乱用の有無を80%,虐待対象予測を82%,虐待重症度予測を65%とした。
- 参考スコア(独自算出の注目度): 19.32095911241636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While extensive popularity of online social media platforms has made
information dissemination faster, it has also resulted in widespread online
abuse of different types like hate speech, offensive language, sexist and
racist opinions, etc. Detection and curtailment of such abusive content is
critical for avoiding its psychological impact on victim communities, and
thereby preventing hate crimes. Previous works have focused on classifying user
posts into various forms of abusive behavior. But there has hardly been any
focus on estimating the severity of abuse and the target. In this paper, we
present a first of the kind dataset with 7601 posts from Gab which looks at
online abuse from the perspective of presence of abuse, severity and target of
abusive behavior. We also propose a system to address these tasks, obtaining an
accuracy of ~80% for abuse presence, ~82% for abuse target prediction, and ~65%
for abuse severity prediction.
- Abstract(参考訳): オンラインソーシャルメディアプラットフォームの広範な普及により、情報の拡散は速くなっているが、ヘイトスピーチ、攻撃的言語、セクシスト、人種差別的意見など、さまざまなタイプのオンライン乱用も広まっている。
このような乱用コンテンツの検出と削減は、被害者コミュニティに対する心理的影響を回避し、ヘイトクライムの予防に重要である。
以前の作品は、ユーザー投稿をさまざまな虐待行動の形式に分類することに焦点を当てていた。
しかし、虐待の深刻さとターゲットを見積もることにはほとんど焦点が当てられていない。
本稿では,gabの投稿7601件を対象に,虐待の有無,重大性,虐待行為のターゲットなどの観点から,インターネット上の虐待を考察したデータセットを初めて紹介する。
また,これらの課題に対処するシステムを提案し,乱用の有無の80%,乱用目標予測の82%,乱用被害予測の65%の精度を得た。
関連論文リスト
- Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Explainable Abuse Detection as Intent Classification and Slot Filling [66.80201541759409]
我々は、システムがデータ検査だけで乱用を構成する事象を確実に学習できるという非現実的な期待を捨て、政策対応による悪用検出の概念を導入する。
目的分類とスロットフィリングのためのアーキテクチャは、モデル決定の根拠を提供しながら、悪用検出にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-10-06T03:33:30Z) - Understanding Longitudinal Behaviors of Toxic Accounts on Reddit [7.090204155621651]
我々は、Redditに有毒なコメントを投稿する929Kアカウントの研究を18ヶ月にわたって発表した。
これらのアカウントは、侮辱、アイデンティティー攻撃、暴力の脅威、セクシャルハラスメントを含む1400万件以上の有毒なコメントを投稿した。
我々の分析は、オンライン上で有害な行動の自動検出を改善するための、新しい時間ベースおよびグラフベースの機能の基礎を形成します。
論文 参考訳(メタデータ) (2022-09-06T14:35:44Z) - Enriching Abusive Language Detection with Community Context [0.3708656266586145]
叙述表現の使用は、良心的または活発な権限を与えることができる。
乱用検出のモデルは、これらの表現を軽蔑的で不注意に、疎外されたグループが持つ生産的な会話を検閲するものとして誤分類する。
本稿では,コミュニティの文脈が乱用言語検出における分類結果をどのように改善するかを強調した。
論文 参考訳(メタデータ) (2022-06-16T20:54:02Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - The User behind the Abuse: A Position on Ethics and Explainability [25.791014642037585]
ユーザとオンラインコミュニティのモデリングが乱用検知に果たす役割について論じる。
その後、ユーザー情報とコミュニティ情報を取り入れる倫理的課題を探求します。
説明可能な方法が示すべき特性について提案する。
論文 参考訳(メタデータ) (2021-03-31T16:20:37Z) - Detecting Harmful Content On Online Platforms: What Platforms Need Vs.
Where Research Efforts Go [44.774035806004214]
オンラインプラットフォーム上の有害コンテンツには、ヘイトスピーチ、攻撃的言語、いじめとハラスメント、誤情報、スパム、暴力、グラフィックコンテンツ、性的虐待、自己被害など、さまざまな形態がある。
オンラインプラットフォームは、そのようなコンテンツを、社会的危害を抑えるため、法律に従うために、ユーザーのためにより包括的な環境を作るために、緩和しようとしている。
現在、オンラインプラットフォームが抑制しようとしている有害なコンテンツの種類と、そのようなコンテンツを自動的に検出する研究努力との間には、隔たりがある。
論文 参考訳(メタデータ) (2021-02-27T08:01:10Z) - ETHOS: an Online Hate Speech Detection Dataset [6.59720246184989]
本稿では,YouTube と Reddit のコメントに基づいて,Final-Eight クラウドソーシングプラットフォームを用いて検証した,バイナリとマルチラベルの2種類のテキストデータセットである 'ETHOS' を紹介する。
我々の重要な前提は、そのような時間のかかるプロセスから少量のラベル付きデータを入手しても、調査対象の素材でヘイトスピーチの発生を保証できるということである。
論文 参考訳(メタデータ) (2020-06-11T08:59:57Z) - Information Consumption and Social Response in a Segregated Environment:
the Case of Gab [74.5095691235917]
この研究は、COVID-19トピックに関するGab内のインタラクションパターンの特徴を提供する。
疑わしい、信頼できるコンテンツに対する社会的反応には、統計的に強い違いはない。
本研究は,協調した不正確な行動の理解と情報操作の早期警戒に関する知見を提供する。
論文 参考訳(メタデータ) (2020-06-03T11:34:25Z) - Joint Modelling of Emotion and Abusive Language Detection [26.18171134454037]
マルチタスク学習フレームワークを用いて,感情と虐待的言語検出の最初のジョイントモデルを提案する。
その結果、感情的特徴を取り入れることで、データセット間での悪用検出性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2020-05-28T14:08:40Z) - Quantifying the Vulnerabilities of the Online Public Square to
Adversarial Manipulation Tactics [47.189859616654736]
ソーシャルメディアモデルを用いて、コンテンツの品質に対するいくつかの敵の操作戦術の影響を定量化する。
ソーシャルメディアの目印である影響力のあるアカウントの存在は、操作するオンラインコミュニティの脆弱性を悪化させる。
これらの知見は、プラットフォームがソーシャルメディアユーザーによる操作のレジリエンスを高めるために使われる可能性があることを示唆している。
論文 参考訳(メタデータ) (2019-07-13T21:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。