論文の概要: Reading In-Between the Lines: An Analysis of Dissenter
- arxiv url: http://arxiv.org/abs/2009.01772v2
- Date: Sat, 26 Sep 2020 15:16:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 22:54:33.420735
- Title: Reading In-Between the Lines: An Analysis of Dissenter
- Title(参考訳): 行間を読む:異端者の分析
- Authors: Erik Rye and Jeremy Blackburn and Robert Beverly
- Abstract要約: 我々は、あらゆるWebページに対して会話オーバーレイを提供するブラウザおよびWebアプリケーションであるDissenterについて研究する。
本研究では,議論中のDissenterコメントやユーザ,ウェブサイトの履歴を取得する。
私たちのコーパスは、101kユーザーが588kの異なるURLでコメントした約1.68万のコメントで構成されています。
- 参考スコア(独自算出の注目度): 2.2881898195409884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efforts by content creators and social networks to enforce legal and
policy-based norms, e.g. blocking hate speech and users, has driven the rise of
unrestricted communication platforms. One such recent effort is Dissenter, a
browser and web application that provides a conversational overlay for any web
page. These conversations hide in plain sight - users of Dissenter can see and
participate in this conversation, whereas visitors using other browsers are
oblivious to their existence. Further, the website and content owners have no
power over the conversation as it resides in an overlay outside their control.
In this work, we obtain a history of Dissenter comments, users, and the
websites being discussed, from the initial release of Dissenter in Feb. 2019
through Apr. 2020 (14 months). Our corpus consists of approximately 1.68M
comments made by 101k users commenting on 588k distinct URLs. We first analyze
macro characteristics of the network, including the user-base, comment
distribution, and growth. We then use toxicity dictionaries, Perspective API,
and a Natural Language Processing model to understand the nature of the
comments and measure the propensity of particular websites and content to
elicit hateful and offensive Dissenter comments. Using curated rankings of
media bias, we examine the conditional probability of hateful comments given
left and right-leaning content. Finally, we study Dissenter as a social
network, and identify a core group of users with high comment toxicity.
- Abstract(参考訳): ヘイトスピーチやユーザーをブロックするなど、法的およびポリシーに基づく規範を強制するコンテンツクリエーターやソーシャルネットワークによる取り組みは、制限なしのコミュニケーションプラットフォームを台頭させた。
ブラウザとwebアプリケーションであり、あらゆるwebページに対して対話的なオーバーレイを提供する。
Dissenterのユーザーは、この会話を見て参加できるが、他のブラウザを使う訪問者は、その存在に消極的だ。
さらに、webサイトとコンテンツオーナーは、コントロールの外のオーバーレイにあるため、会話に対する権限を持たない。
本研究では、2019年2月のDissenterの初期リリースから2020年4月(14ヶ月)までの、Dissenterコメント、ユーザ、および議論中のWebサイトの歴史を入手する。
私たちのコーパスは、約1.68万のコメントで構成されています。
まず,ユーザベース,コメント配布,成長などネットワークのマクロ特性を分析する。
次に、毒性辞書、パースペクティブAPI、および自然言語処理モデルを使用して、コメントの性質を理解し、特定のウェブサイトやコンテンツの妥当性を測定して、憎悪と攻撃的なDissenterコメントを引き出す。
メディアバイアスのキュレートされたランキングを用いて、左と右のコンテンツに対するヘイトフルコメントの条件付き確率を検討する。
最後に、Dissenterをソーシャルネットワークとして研究し、コメント毒性の高いユーザーの中核グループを特定した。
関連論文リスト
- Analyzing Toxicity in Deep Conversations: A Reddit Case Study [0.0]
この研究は、公開会話設定における毒性に関するユーザがどのように振る舞うかを理解するために、ツリーベースのアプローチを採用する。
Redditの8つのコミュニティから上位100件の投稿とコメントのセクションを収集し、100万件以上の回答を得た。
有毒なコメントは、その後の有毒なコメントがオンライン会話で生み出される可能性を高める。
論文 参考訳(メタデータ) (2024-04-11T16:10:44Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Classification of social media Toxic comments using Machine learning
models [0.0]
この要約は、ソーシャルメディアプラットフォームにおける有害なコメントの問題を概説している。
この行動は反社会的行動と呼ばれ、オンライン討論、コメント、戦いの間に起こる。
明示的な言語を含むコメントは、有毒、重篤な有毒、わいせつ、脅迫、侮辱、同一性嫌悪など、様々なカテゴリに分類される。
ユーザーを不快な言葉から守るために、企業はコメントを掲示し、ユーザーをブロックし始めた。
論文 参考訳(メタデータ) (2023-04-14T05:40:11Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Going Extreme: Comparative Analysis of Hate Speech in Parler and Gab [2.487445341407889]
われわれはParler上でのヘイトスピーチの大規模分析を行った。
分類精度を改善するために10K Parlerの投稿に注釈を付けた。
ヘイト・モンジャーはパラーのアクティブユーザー数の16.1%を占める。
論文 参考訳(メタデータ) (2022-01-27T19:29:17Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Online Hate: Behavioural Dynamics and Relationship with Misinformation [0.0]
YouTubeビデオに100万以上のコメントが寄せられたコーパスでヘイトスピーチ検出を行います。
我々の結果は、ゴドウィンの法則に則って、オンラインの議論は、ますます有害な意見交換へと縮退する傾向にあることを示している。
論文 参考訳(メタデータ) (2021-05-28T17:30:51Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。