論文の概要: Setting the Record Straighter on Shadow Banning
- arxiv url: http://arxiv.org/abs/2012.05101v2
- Date: Tue, 13 Apr 2021 12:08:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 08:07:22.584602
- Title: Setting the Record Straighter on Shadow Banning
- Title(参考訳): シャドウ・バンニングに記録ストレートを設定する
- Authors: Erwan Le Merrer and Benoit Morgan and Gilles Tr\'edan
- Abstract要約: シャドウ禁止は、一部のユーザーの視認性を制限するオンラインソーシャルネットワークである。
Twitterはそのような慣行を使わないと宣言し、一部のユーザーに対する制限を正当化するために「バグ」の発生について議論することもあった。
本論文は,統計的およびグラフトポロジ的アプローチを採用することで,主要なオンラインプラットフォーム上でのシャドウ禁止の可能性について,初めて論じるものである。
- 参考スコア(独自算出の注目度): 3.9103337761169943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shadow banning consists for an online social network in limiting the
visibility of some of its users, without them being aware of it. Twitter
declares that it does not use such a practice, sometimes arguing about the
occurrence of "bugs" to justify restrictions on some users. This paper is the
first to address the plausibility or not of shadow banning on a major online
platform, by adopting both a statistical and a graph topological approach. We
first conduct an extensive data collection and analysis campaign, gathering
occurrences of visibility limitations on user profiles (we crawl more than 2.5
million of them). In such a black-box observation setup, we highlight the
salient user profile features that may explain a banning practice (using
machine learning predictors). We then pose two hypotheses for the phenomenon:
i) limitations are bugs, as claimed by Twitter, and ii) shadow banning
propagates as an epidemic on user-interactions ego-graphs. We show that
hypothesis i) is statistically unlikely with regards to the data we collected.
We then show some interesting correlation with hypothesis ii), suggesting that
the interaction topology is a good indicator of the presence of groups of
shadow banned users on the service.
- Abstract(参考訳): shadow banningは、一部のユーザーの可視性を制限するオンラインソーシャルネットワークである。
twitterはそのようなプラクティスを使わないと宣言し、一部のユーザーに対する制限を正当化するための"バグ"の発生について議論することがある。
本論文は,統計的およびグラフトポロジ的アプローチを採用することで,主要なオンラインプラットフォーム上でのシャドウ禁止の可能性に初めて対処するものである。
まず、ユーザプロファイルの可視性制限の発生を収集する、広範なデータ収集と分析キャンペーンを実施します(うち250万以上をクロールしています)。
このようなブラックボックス観察設定では、禁止慣行(機械学習予測器を使用)を説明する可能性のある、健全なユーザプロファイル機能を強調します。
次に、この現象の仮説を2つ挙げる。
i) 制限はバグであり、Twitterが主張している。
二 ユーザ対話エゴグラフの流行として伝播する影の禁止
私たちはその仮説を示します
i) 収集したデータに関して統計的に不可能である。
仮説と興味深い相関関係を示します
ii) は, インタラクショントポロジが, シャドーを禁止したユーザグループの存在を示す良い指標であることを示唆した。
関連論文リスト
- Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - BeMap: Balanced Message Passing for Fair Graph Neural Network [50.910842893257275]
異なる人口集団の1ホップ隣人がバランスが取れていない場合、メッセージパッシングがバイアスを増幅することを示します。
本研究では,各ノードの1ホップ隣人の数を異なるグループ間でバランスをとる,公平なメッセージパッシング手法であるBeMapを提案する。
論文 参考訳(メタデータ) (2023-06-07T02:16:36Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Explainable Abuse Detection as Intent Classification and Slot Filling [66.80201541759409]
我々は、システムがデータ検査だけで乱用を構成する事象を確実に学習できるという非現実的な期待を捨て、政策対応による悪用検出の概念を導入する。
目的分類とスロットフィリングのためのアーキテクチャは、モデル決定の根拠を提供しながら、悪用検出にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-10-06T03:33:30Z) - A deep dive into the consistently toxic 1% of Twitter [9.669275987983447]
この調査は、112万のTwitterプロフィールから14年間のツイートと2億2300万以上のツイートをカバーしている。
有害なコンテンツの一貫性の観点から最も極端なプロファイルを選択し、彼らのツイートテキストと、彼らが共有したドメイン、ハッシュタグ、URLを調べました。
その結果、これらのプロファイルはハッシュタグ、URL、ドメインの多様性の低い狭いテーマに保たれており、数学的に互いに似ており、ボットのような振る舞いの可能性が高いことがわかった。
論文 参考訳(メタデータ) (2022-02-16T04:21:48Z) - Characterizing, Detecting, and Predicting Online Ban Evasion [9.949354222717773]
悪意のあるユーザーは、オンライン禁止を回避するために新しいアカウントを簡単に作成できる。
我々は,オンラインプラットフォーム上での禁止を回避する行為として,禁忌回避に関するデータ駆動研究を初めて実施する。
回避子アカウントは,複数の行動軸上の禁止親アカウントと類似性を示す。
論文 参考訳(メタデータ) (2022-02-10T18:58:19Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - You too Brutus! Trapping Hateful Users in Social Media: Challenges,
Solutions & Insights [11.266863752167678]
ヘイトスピーチは、オンラインソーシャルメディアを悩ませる重要な問題の1つだ。
問題空間の詳細な探索を行い、グラフニューラルネットワーク(GNN)を用いたモデルの配列を調査した。
テキストおよびグラフベースモデル上でのエラー解析を行い、憎しみのあるユーザが独自のネットワーク近傍シグネチャを持っていることを観察する。
論文 参考訳(メタデータ) (2021-08-01T19:13:58Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Misleading Repurposing on Twitter [3.0254442724635173]
本研究は, ミスリーディング再資源化に関する最初の, 大規模研究である。
悪意のあるユーザーは、フォロワーを維持しながらアカウントを新しい目的に利用するために、プロフィール属性の変更などを通じて、ソーシャルメディアアカウントのアイデンティティを変更する。
本稿では,インターネットアーカイブのTwitter Stream Grabから収集したデータに対する教師あり学習を用いて,再利用されたアカウントにフラグを付ける手法と行動の定義を提案する。
論文 参考訳(メタデータ) (2020-10-20T20:19:01Z) - Detecting Online Hate Speech: Approaches Using Weak Supervision and
Network Embedding Models [2.3322477552758234]
本研究では,ヘイトフルユーザを定量的に発見する弱監督型深層学習モデルを提案する。
我々は、19.2Mの投稿において、我々のモデルを評価し、我々の弱い監督モデルは、間接的に憎悪的な相互作用を識別するベースラインモデルよりも優れていることを示す。
また,Gabにおける2種類のユーザインタラクション(引用と応答)と,弱監督モデルからのインタラクションスコアをエッジウェイトとして分析し,ヘイトフルユーザを予測する。
論文 参考訳(メタデータ) (2020-07-24T18:13:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。