論文の概要: Characterizing, Detecting, and Predicting Online Ban Evasion
- arxiv url: http://arxiv.org/abs/2202.05257v1
- Date: Thu, 10 Feb 2022 18:58:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 16:53:45.440394
- Title: Characterizing, Detecting, and Predicting Online Ban Evasion
- Title(参考訳): オンライン禁止回避の特徴付け, 検出, 予測
- Authors: Manoj Niverthi, Gaurav Verma, Srijan Kumar
- Abstract要約: 悪意のあるユーザーは、オンライン禁止を回避するために新しいアカウントを簡単に作成できる。
我々は,オンラインプラットフォーム上での禁止を回避する行為として,禁忌回避に関するデータ駆動研究を初めて実施する。
回避子アカウントは,複数の行動軸上の禁止親アカウントと類似性を示す。
- 参考スコア(独自算出の注目度): 9.949354222717773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Moderators and automated methods enforce bans on malicious users who engage
in disruptive behavior. However, malicious users can easily create a new
account to evade such bans. Previous research has focused on other forms of
online deception, like the simultaneous operation of multiple accounts by the
same entities (sockpuppetry), impersonation of other individuals, and studying
the effects of de-platforming individuals and communities. Here we conduct the
first data-driven study of ban evasion, i.e., the act of circumventing bans on
an online platform, leading to temporally disjoint operation of accounts by the
same user.
We curate a novel dataset of 8,551 ban evasion pairs (parent, child)
identified on Wikipedia and contrast their behavior with benign users and
non-evading malicious users. We find that evasion child accounts demonstrate
similarities with respect to their banned parent accounts on several behavioral
axes - from similarity in usernames and edited pages to similarity in content
added to the platform and its psycholinguistic attributes. We reveal key
behavioral attributes of accounts that are likely to evade bans. Based on the
insights from the analyses, we train logistic regression classifiers to detect
and predict ban evasion at three different points in the ban evasion lifecycle.
Results demonstrate the effectiveness of our methods in predicting future
evaders (AUC = 0.78), early detection of ban evasion (AUC = 0.85), and matching
child accounts with parent accounts (MRR = 0.97). Our work can aid moderators
by reducing their workload and identifying evasion pairs faster and more
efficiently than current manual and heuristic-based approaches. Dataset is
available $\href{https://github.com/srijankr/ban_evasion}{\text{here}}$.
- Abstract(参考訳): モデレーターと自動メソッドは、破壊的な行動に携わる悪意のあるユーザーを禁止する。
しかし、悪意のあるユーザーはこうした禁止を回避するために新しいアカウントを簡単に作成できる。
これまでの研究では、同一エンティティによる複数のアカウントの同時操作(sockpuppetry)、他の個人への偽装、個人やコミュニティの非プラットフォーム化の効果の研究など、他の形式のオンラインデセプションに重点を置いてきた。
ここでは,オンラインプラットフォーム上での禁止を回避し,時間的にアカウントの操作を同一ユーザから切り離すという,禁忌回避に関する最初のデータ駆動研究を行う。
我々は,wikipedia上で識別された8,551個の回避ペア(親子)のデータセットを収集し,その動作を良質なユーザと非悪質なユーザと対比した。
回避子アカウントは、ユーザ名や編集ページの類似性から、プラットフォームに追加されたコンテンツと精神言語的属性の類似性まで、いくつかの行動軸上で禁止された親アカウントと類似性を示す。
禁止を回避しそうなアカウントの、重要な行動特性を明らかにします。
分析から得られた知見に基づき,ロジスティック回帰分類器を訓練し,禁止回避ライフサイクルの3つの異なる地点で禁止回避を検知し,予測する。
その結果、将来の回避者予測(auc = 0.78)、早期回避(auc = 0.85)、児童アカウントと親アカウントとのマッチング(mrr = 0.97)における効果が示された。
我々の研究は、現在のマニュアルやヒューリスティックなアプローチよりも、ワークロードを削減し、回避ペアを迅速かつ効率的に特定することで、モデレーターを支援します。
datasetは$\href{https://github.com/srijankr/ban_evasion}{\text{here}}$である。
関連論文リスト
- Online Corrupted User Detection and Regret Minimization [49.536254494829436]
現実世界のオンラインウェブシステムでは、複数のユーザがシステムに順次到着する。
乱れた行動から未知のユーザ関係を学習・活用するために,LOCUDという重要なオンライン学習問題を提案する。
我々はRCLUB-WCUの推測ユーザ関係に基づく新しいオンライン検出アルゴリズムOCCUDを考案した。
論文 参考訳(メタデータ) (2023-10-07T10:20:26Z) - User Identity Linkage in Social Media Using Linguistic and Social
Interaction Features [11.781485566149994]
ユーザーIDのリンクは、ソーシャルメディアアカウントが同一の自然人に属する可能性があることを明らかにすることを目的としている。
本研究は,ユーザのオンライン活動の複数の属性を利用する機械学習に基づく検出モデルを提案する。
モデルの有効性は、乱用とテロ関連のTwitterコンテンツに関する2つのケースで実証されている。
論文 参考訳(メタデータ) (2023-08-22T15:10:38Z) - Transaction Fraud Detection via an Adaptive Graph Neural Network [64.9428588496749]
本稿では,アダプティブサンプリングとアグリゲーションに基づくグラフニューラルネットワーク(ASA-GNN)を提案する。
ノイズの多いノードをフィルタリングし、不正なノードを補うために、隣のサンプリング戦略を実行する。
3つのファイナンシャルデータセットの実験により,提案手法のASA-GNNは最先端のデータセットよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-11T07:48:39Z) - Bandit Social Learning: Exploration under Myopic Behavior [58.75758600464338]
オンラインプラットフォーム上でのレビューによって動機付けられた社会学習のダイナミクスについて検討する。
エージェントはまとめて単純なマルチアームのバンディットプロトコルに従うが、各エージェントは探索を伴わずにミオプティカルに振る舞う。
このような振る舞いに対して,スターク学習の失敗を導出し,好意的な結果を提供する。
論文 参考訳(メタデータ) (2023-02-15T01:57:57Z) - Thinking Two Moves Ahead: Anticipating Other Users Improves Backdoor
Attacks in Federated Learning [102.05872020792603]
我々は,他のクライアントの行動を含む,連合学習パイプライン全体の予測と説明を行う攻撃を提案する。
この新たな攻撃は、ランダムにサンプリングされたラウンドのごく一部にアタッカーが貢献する現実的なシナリオにおいて有効であることを示す。
論文 参考訳(メタデータ) (2022-10-17T17:59:38Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - Compromised account detection using authorship verification: a novel
approach [1.0312968200748118]
正当なアカウントの妥協は、オンラインソーシャルネットワーク(OSNs)において悪意のあるコンテンツを大きなユーザーベースに広める方法である
本稿では,著者確認に基づく新しいアプローチを提案し,漏洩したTwitterアカウントを識別する。
論文 参考訳(メタデータ) (2022-06-02T14:54:27Z) - Setting the Record Straighter on Shadow Banning [3.9103337761169943]
シャドウ禁止は、一部のユーザーの視認性を制限するオンラインソーシャルネットワークである。
Twitterはそのような慣行を使わないと宣言し、一部のユーザーに対する制限を正当化するために「バグ」の発生について議論することもあった。
本論文は,統計的およびグラフトポロジ的アプローチを採用することで,主要なオンラインプラットフォーム上でのシャドウ禁止の可能性について,初めて論じるものである。
論文 参考訳(メタデータ) (2020-12-09T15:17:33Z) - Misleading Repurposing on Twitter [3.0254442724635173]
本研究は, ミスリーディング再資源化に関する最初の, 大規模研究である。
悪意のあるユーザーは、フォロワーを維持しながらアカウントを新しい目的に利用するために、プロフィール属性の変更などを通じて、ソーシャルメディアアカウントのアイデンティティを変更する。
本稿では,インターネットアーカイブのTwitter Stream Grabから収集したデータに対する教師あり学習を用いて,再利用されたアカウントにフラグを付ける手法と行動の定義を提案する。
論文 参考訳(メタデータ) (2020-10-20T20:19:01Z) - Poisoned classifiers are not only backdoored, they are fundamentally
broken [84.67778403778442]
一般的に研究されている、分類モデルに対するバックドア中毒攻撃の下で、攻撃者はトレーニングデータのサブセットに小さなトリガーを追加する。
毒を盛った分類器は、引き金を持つ敵のみに弱いと推定されることが多い。
本稿では,このバックドア型分類器の考え方が誤りであることを実証的に示す。
論文 参考訳(メタデータ) (2020-10-18T19:42:44Z) - Detecting Troll Behavior via Inverse Reinforcement Learning: A Case
Study of Russian Trolls in the 2016 US Election [8.332032237125897]
Inverse Reinforcement Learning (IRL) に基づくトロール行動の抽出とトロールアカウントの同定手法を提案する。
調査事例として、2016年アメリカ合衆国大統領選挙におけるロシアの介入疑惑の調査において、米国議会が特定したトロルアカウントについて考察する。
IRLに基づくアプローチでは,トロルアカウントを正確に検出することが可能である。
論文 参考訳(メタデータ) (2020-01-28T19:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。