論文の概要: You are a Bot! -- Studying the Development of Bot Accusations on Twitter
- arxiv url: http://arxiv.org/abs/2302.00546v3
- Date: Sun, 31 Mar 2024 06:51:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-02 16:13:48.310698
- Title: You are a Bot! -- Studying the Development of Bot Accusations on Twitter
- Title(参考訳): ボットだ! - Twitterにおけるボット非難の展開についての研究
- Authors: Dennis Assenmacher, Leon Fröhling, Claudia Wagner,
- Abstract要約: 地上の真実データがないと、研究者たちは群衆の知恵を取り入れたいかもしれない。
本研究は,Twitter上でのボットの告発に関する大規模な研究である。
この言葉は、ソーシャルメディアの会話において、ボットという用語が非人間化の道具になったことを示している。
- 参考スコア(独自算出の注目度): 1.7626250599622473
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The characterization and detection of bots with their presumed ability to manipulate society on social media platforms have been subject to many research endeavors over the last decade. In the absence of ground truth data (i.e., accounts that are labeled as bots by experts or self-declare their automated nature), researchers interested in the characterization and detection of bots may want to tap into the wisdom of the crowd. But how many people need to accuse another user as a bot before we can assume that the account is most likely automated? And more importantly, are bot accusations on social media at all a valid signal for the detection of bots? Our research presents the first large-scale study of bot accusations on Twitter and shows how the term bot became an instrument of dehumanization in social media conversations since it is predominantly used to deny the humanness of conversation partners. Consequently, bot accusations on social media should not be naively used as a signal to train or test bot detection models.
- Abstract(参考訳): ソーシャルメディアプラットフォーム上で社会を操作できると推定されるボットの特性と検出は、過去10年間に多くの研究課題に直面してきた。
根拠となる真理データ(すなわち、専門家によってボットとしてラベル付けされたアカウント、あるいは自動化された性質を自己宣言するアカウント)が存在しない場合、ボットの特性や検出に関心のある研究者は、群衆の知恵を取り入れたいかもしれない。
しかし、アカウントが自動化されていると仮定する前に、ボットとして他のユーザーを非難する必要がある人はどのくらいいるだろうか?
さらに重要なのは、ボットを検知するための有効なシグナルとして、ソーシャルメディアに対するボットの告発があるか?
本研究は、Twitter上でのボットの告発に関する大規模な研究であり、会話相手の人間性を否定するために主に使用されているため、ソーシャルメディアの会話においてボットという用語が非人間化の手段となったことを示すものである。
したがって、ソーシャルメディアに対するボットの告発は、ボット検出モデルを訓練またはテストするための信号として、否定的に使用するべきではない。
関連論文リスト
- Sleeper Social Bots: a new generation of AI disinformation bots are already a political threat [0.0]
Sleeper Socialbots」は、偽情報を広め、世論を操るために作られたAI駆動のソーシャルボットである。
予備的な発見は、これらのボットが人間のユーザーとして説得力を持って通過し、会話に積極的に参加し、偽情報を効果的に広めることができることを示唆している。
私たちの研究の意味は、2024年の米国大統領選挙以降でソーシャルボットがもたらす重大な課題を示している。
論文 参考訳(メタデータ) (2024-08-07T19:57:10Z) - Unmasking Social Bots: How Confident Are We? [41.94295877935867]
本稿では,ボット検出と不確実性の定量化の両方に対処することを提案する。
この二重焦点は、各予測の定量化の不確実性に関連する追加情報を活用することができるため、非常に重要である。
具体的には,予測を高い信頼性で行う場合のボットに対する標的的介入を促進するとともに,予測が不確実な場合の警告(例えば,より多くのデータ収集)を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:33:52Z) - My Brother Helps Me: Node Injection Based Adversarial Attack on Social Bot Detection [69.99192868521564]
Twitterのようなソーシャルプラットフォームは、数多くの不正なユーザーから包囲されている。
ソーシャルネットワークの構造のため、ほとんどの手法は攻撃を受けやすいグラフニューラルネットワーク(GNN)に基づいている。
本稿では,ボット検出モデルを欺いたノードインジェクションに基づく逆攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T03:09:48Z) - BotArtist: Generic approach for bot detection in Twitter via semi-automatic machine learning pipeline [47.61306219245444]
Twitterは、ボットや偽アカウントのターゲットとなり、偽情報や操作の拡散につながった。
本稿では,機械学習モデル開発に関連する課題に対処するために,セミオートマチック機械学習パイプライン(SAMLP)を提案する。
ユーザプロファイル機能に基づいたボット検出モデルBotArtistを開発した。
論文 参考訳(メタデータ) (2023-05-31T09:12:35Z) - Should we agree to disagree about Twitter's bot problem? [1.6317061277457]
ボットに類似した行動、検出方法、検査された人口に対する仮定が、Twitter上でのボットの割合の推定にどのように影響するかを論じる。
当社は、プラットフォームがユーザに影響を与える可能性のある脅威に対処する上で、警戒し、透明性を保ち、バイアスを負わないことの責任を強調しています。
論文 参考訳(メタデータ) (2022-09-20T21:27:25Z) - Investigating the Validity of Botometer-based Social Bot Studies [0.0]
ソーシャルボットは、世論を操作することを目的として悪意あるアクターが運営するソーシャルメディアアカウントの自動化だと考えられている。
社会ボットの活動は、アメリカ合衆国大統領選挙を含む様々な政治的文脈で報告されている。
ソーシャルボットの普及率を推定するために広く利用されている研究設計の根本的な欠点を指摘する。
論文 参考訳(メタデータ) (2022-07-23T09:31:30Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - Characterizing Retweet Bots: The Case of Black Market Accounts [3.0254442724635173]
我々は、ブラックマーケットからリツイートを購入することで発見されたリツイートボットを特徴付けている。
偽アカウントなのか偽アカウントなのか、それとも偽アカウントなのかを検知する。
また,人的管理アカウントとの違いも分析した。
論文 参考訳(メタデータ) (2021-12-04T15:52:46Z) - BotNet Detection On Social Media [0.0]
ソーシャルメディアは、これらのプラットフォームを使って他のユーザーを操作しようとするユーザー(ボット)アカウントにとって、オープンな場となっている。
ボットが選挙結果を操作している証拠は、全国、つまり世界にとって大きな脅威となる可能性がある。
私たちの目標は、セマンティックなWebマイニング技術を活用して、これらの活動に関わる偽のボットやアカウントを特定することです。
論文 参考訳(メタデータ) (2021-10-12T00:38:51Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Detection of Novel Social Bots by Ensembles of Specialized Classifiers [60.63582690037839]
悪意ある俳優は、社会ボットとして知られるアルゴリズムによって部分的に制御される不正なソーシャルメディアアカウントを作成し、誤情報を広め、オンラインでの議論を扇動する。
異なるタイプのボットが、異なる行動特徴によって特徴づけられることを示す。
本稿では,ボットのクラスごとに専門的な分類器を訓練し,それらの決定を最大ルールで組み合わせる,教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T22:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。