論文の概要: Unmasking Social Bots: How Confident Are We?
- arxiv url: http://arxiv.org/abs/2407.13929v1
- Date: Thu, 18 Jul 2024 22:33:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 19:23:11.949951
- Title: Unmasking Social Bots: How Confident Are We?
- Title(参考訳): ソーシャルボットを解き放つ:我々をどう信じているか?
- Authors: James Giroux, Ariyarathne Gangani, Alexander C. Nwala, Cristiano Fanelli,
- Abstract要約: 本稿では,ボット検出と不確実性の定量化の両方に対処することを提案する。
この二重焦点は、各予測の定量化の不確実性に関連する追加情報を活用することができるため、非常に重要である。
具体的には,予測を高い信頼性で行う場合のボットに対する標的的介入を促進するとともに,予測が不確実な場合の警告(例えば,より多くのデータ収集)を提案する。
- 参考スコア(独自算出の注目度): 41.94295877935867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social bots remain a major vector for spreading disinformation on social media and a menace to the public. Despite the progress made in developing multiple sophisticated social bot detection algorithms and tools, bot detection remains a challenging, unsolved problem that is fraught with uncertainty due to the heterogeneity of bot behaviors, training data, and detection algorithms. Detection models often disagree on whether to label the same account as bot or human-controlled. However, they do not provide any measure of uncertainty to indicate how much we should trust their results. We propose to address both bot detection and the quantification of uncertainty at the account level - a novel feature of this research. This dual focus is crucial as it allows us to leverage additional information related to the quantified uncertainty of each prediction, thereby enhancing decision-making and improving the reliability of bot classifications. Specifically, our approach facilitates targeted interventions for bots when predictions are made with high confidence and suggests caution (e.g., gathering more data) when predictions are uncertain.
- Abstract(参考訳): ソーシャルボットは、ソーシャルメディアに偽情報を広める主要な手段であり、大衆に脅威を与えている。
複数の高度なソーシャルボット検出アルゴリズムやツールの開発における進歩にもかかわらず、ボット検出は、ボットの振る舞い、トレーニングデータ、そして検出アルゴリズムの不均一性によって不確実性に直面している、困難な未解決の問題であり続けている。
検出モデルは、ボットと同一のアカウントにラベルを付けるか、人間によって制御されるかについて、しばしば意見が一致しない。
しかし、結果がどれだけ信頼されるべきかを示すための不確実性の指標は提供されていない。
本稿では,ボット検出と会計レベルでの不確実性の定量化の両方に対処することを提案する。
この2つの焦点は、各予測の定量化の不確実性に関連する追加情報を活用することによって、意思決定の強化とボット分類の信頼性の向上を可能にするため、極めて重要である。
具体的には,予測を高い信頼性で行う場合のボットに対する標的的介入を促進するとともに,予測が不確実な場合の警告(例えば,より多くのデータ収集)を提案する。
関連論文リスト
- Adversarial Botometer: Adversarial Analysis for Social Bot Detection [1.9280536006736573]
ソーシャルボットは人間の創造性を模倣するコンテンツを制作する。
悪意のあるソーシャルボットは、非現実的なコンテンツで人々を騙すようになる。
テキストベースのボット検出器の動作を競合環境下で評価する。
論文 参考訳(メタデータ) (2024-05-03T11:28:21Z) - BotSSCL: Social Bot Detection with Self-Supervised Contrastive Learning [6.317191658158437]
自己監督型コントラスト学習(BotSSCL)を用いたソーシャルボット検出のための新しいフレームワークを提案する。
BotSSCLは対照的な学習を用いて、埋め込み空間におけるソーシャルボットと人間を区別し、線形分離性を改善する。
ボットアカウントの操作による検出回避に対するBotSSCLの堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-06T06:13:13Z) - What Does the Bot Say? Opportunities and Risks of Large Language Models in Social Media Bot Detection [48.572932773403274]
ソーシャルボット検出における大規模言語モデルの可能性とリスクについて検討する。
本稿では,多様なユーザ情報モダリティを分割し,克服するための混合異種エキスパートフレームワークを提案する。
実験により、1000の注釈付き例に対する命令チューニングは、最先端のベースラインよりも優れた特殊なLLMを生成することが示された。
論文 参考訳(メタデータ) (2024-02-01T06:21:19Z) - My Brother Helps Me: Node Injection Based Adversarial Attack on Social Bot Detection [69.99192868521564]
Twitterのようなソーシャルプラットフォームは、数多くの不正なユーザーから包囲されている。
ソーシャルネットワークの構造のため、ほとんどの手法は攻撃を受けやすいグラフニューラルネットワーク(GNN)に基づいている。
本稿では,ボット検出モデルを欺いたノードインジェクションに基づく逆攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T03:09:48Z) - From Online Behaviours to Images: A Novel Approach to Social Bot
Detection [0.3867363075280544]
特定のタイプの社会アカウントは、要求できないコンテンツ、過党派、宣伝的な情報を促進することが知られている。
まず、アカウントが実行するアクションのシーケンスを画像に変換する新しいアルゴリズムを提案する。
文献でよく知られた実際のアカウント/ボットアカウントデータセット上でのボット検出の最先端結果と比較する。
論文 参考訳(メタデータ) (2023-04-15T11:36:50Z) - BotShape: A Novel Social Bots Detection Approach via Behavioral Patterns [4.386183132284449]
実世界のデータセットに基づいて、生のイベントログから行動シーケンスを構築する。
ボットと真のユーザの違いと、ボットアカウント間の類似パターンを観察する。
本稿では,行動の順序や特徴を自動的に把握するソーシャルボット検出システムBotShapeを提案する。
論文 参考訳(メタデータ) (2023-03-17T19:03:06Z) - Robustification of Online Graph Exploration Methods [59.50307752165016]
我々は、古典的で有名なオンライングラフ探索問題の学習強化版について研究する。
本稿では,予測をよく知られたNearest Neighbor(NN)アルゴリズムに自然に統合するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-10T10:02:31Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - Bot-Match: Social Bot Detection with Recursive Nearest Neighbors Search [9.457368716414079]
ソーシャルボットはこの10年で出現し、最初は迷惑をかけたが、最近ではジャーナリストを威圧し、選挙イベントを妨害し、既存のソーシャル・ファイジャーを悪化させた。
この社会的脅威により、ボット検出アルゴリズムが進化して、ますます高度なボットアカウントに追いつくために進化する、ボット検出アルゴリズムが誕生した。
このギャップは、研究者、ジャーナリスト、アナリストが、最先端の監視ボット検出アルゴリズムによって検出されていない悪意のあるボットアカウントを毎日特定することを意味している。
類似性に基づくアルゴリズムは、既存の教師なしおよび教師なしの手法を補完し、このギャップを埋めることができる。
論文 参考訳(メタデータ) (2020-07-15T11:48:24Z) - Detection of Novel Social Bots by Ensembles of Specialized Classifiers [60.63582690037839]
悪意ある俳優は、社会ボットとして知られるアルゴリズムによって部分的に制御される不正なソーシャルメディアアカウントを作成し、誤情報を広め、オンラインでの議論を扇動する。
異なるタイプのボットが、異なる行動特徴によって特徴づけられることを示す。
本稿では,ボットのクラスごとに専門的な分類器を訓練し,それらの決定を最大ルールで組み合わせる,教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T22:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。