論文の概要: BotSim: Mitigating The Formation Of Conspiratorial Societies with Useful Bots
- arxiv url: http://arxiv.org/abs/2601.06154v1
- Date: Tue, 06 Jan 2026 06:26:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.620745
- Title: BotSim: Mitigating The Formation Of Conspiratorial Societies with Useful Bots
- Title(参考訳): BotSim: 役に立つボットによる陰謀的社会の形成を模倣する
- Authors: Lynnette Hui Xian Ng, Kathleen M. Carley,
- Abstract要約: 我々は、有用なボットを小さな世界ネットワークに導入する社会のエージェントベースモデルであるBotSimを作成する。
これらの便利なボットは、悪い情報を良いものに修正するInfo-Correction Botsと、良いメッセージングを行うGood Botsだ。
この結果から,Bad Botsは,情報協調型ボットとGood Botsのどちらかによって,共謀型社会を創り出すことが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 2.2032950166846526
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Societies can become a conspiratorial society where there is a majority of humans that believe, and therefore spread, conspiracy theories. Artificial intelligence gave rise to social media bots that can spread conspiracies in an automated fashion. Currently, organizations combat the spread of conspiracies through manual fact-checking processes and the dissemination of counter-narratives. However, the effects of harnessing the same automation to create useful bots are not well explored. To address this, we create BotSim, an Agent-Based Model of a society in which useful bots are introduced into a small world network. These useful bots are: Info-Correction Bots, which correct bad information into good, and Good Bots, which put out good messaging. The simulated agents interact through generating, consuming and propagating information. Our results show that, left unchecked, Bad Bots can create a conspiratorial society, and this can be mitigated by either Info-Correction Bots or Good Bots; however, Good Bots are more efficient and sustainable than Info-Correction Bots . Proactive good messaging is more resource-effective than reactive information correction. With our observations, we expand the concept of bots as a malicious social media agent towards automated social media agent that can be used for both good and bad purposes. These results have implications for designing communication strategies to maintain a healthy social cyber ecosystem.
- Abstract(参考訳): 社会は、陰謀論を信じ、そして広める人類が多数存在する、陰謀論的な社会になる。
人工知能は、自動で陰謀を拡散できるソーシャルメディアボットを生み出した。
現在、組織は、手動の事実確認プロセスや反ナラティブの拡散を通じて、陰謀の拡散と戦っている。
しかし、同じ自動化を活用して有用なボットを作る効果は、十分に研究されていない。
これを解決するため,社会のエージェントベースモデルであるBotSimを作成し,有用なボットを小さな世界ネットワークに導入する。
これらの便利なボットは、悪い情報を良いものに修正するInfo-Correction Botsと、良いメッセージングを行うGood Botsだ。
シミュレーションされたエージェントは情報の生成、消費、伝播を通じて相互作用する。
この結果から,Bad Botsは情報協調型ボットやGood Botsによって緩和されるが,良いボットは情報協調型ボットよりも効率的で持続可能であることが示唆された。
アクティブな優れたメッセージングは、リアクティブ情報修正よりもリソース効率が高い。
われわれの観察では、悪質なソーシャルメディアエージェントとしてのボットの概念を、善と悪の両方の目的で使用できる自動化されたソーシャルメディアエージェントへと拡張する。
これらの結果は、健全なソーシャルサイバーエコシステムを維持するためのコミュニケーション戦略の設計に影響を及ぼす。
関連論文リスト
- RoBCtrl: Attacking GNN-Based Social Bot Detectors via Reinforced Manipulation of Bots Control Interaction [51.46634975923564]
本稿では,ソーシャルボット制御攻撃(RoBCtrl)のための対向型マルチエージェント強化学習フレームワークを提案する。
具体的には、拡散モデルを用いて、既存のアカウントデータを小さな修正で再構築することで、高忠実度ボットアカウントを生成する。
次に,MARL(Multi-Agent Reinforcement Learning)法を用いて,ボットの逆動作をシミュレートする。
論文 参考訳(メタデータ) (2025-10-16T02:41:49Z) - The Dual Personas of Social Media Bots [5.494111035517598]
ソーシャルメディアボットは、オンライン会話に参加するAIエージェントである。
ほとんどの研究は、一般的なボットとこれらのエージェントの悪意的な性質に焦点を当てている。
しかし、ボットは多くの異なるペルソナを持ち、それぞれが特定の行動特性やコンテンツ特性に特化している。
論文 参考訳(メタデータ) (2025-04-16T21:30:41Z) - What is a Social Media Bot? A Global Comparison of Bot and Human Characteristics [5.494111035517598]
ボットは、人間が対話理解を必要とするキューを使う間、簡単に自動化できる言語的手がかりを使用する傾向がある。
これらの結論は、7つのイベントにわたる200ミルユーザーにわたるソーシャルメディアのツイートの大規模な分析に基づいている。
論文 参考訳(メタデータ) (2025-01-01T14:45:43Z) - OpenBot-Fleet: A System for Collective Learning with Real Robots [45.739144410591805]
ナビゲーションのための総合的なオープンソースクラウドロボティクスシステムであるOpenBot-Fleetを紹介する。
OpenBot-Fleetは、センサー、ローカルコンピューティング、通信にスマートフォン、セキュアなクラウドストレージとオフボードコンピューティングにGoogleを使用している。
実験では、72台のロボットを家庭で操作する労働者の群集に配布し、OpenBot-Fleetが堅牢なナビゲーションポリシーを学習できることを示しました。
論文 参考訳(メタデータ) (2024-05-13T07:22:50Z) - My Brother Helps Me: Node Injection Based Adversarial Attack on Social Bot Detection [69.99192868521564]
Twitterのようなソーシャルプラットフォームは、数多くの不正なユーザーから包囲されている。
ソーシャルネットワークの構造のため、ほとんどの手法は攻撃を受けやすいグラフニューラルネットワーク(GNN)に基づいている。
本稿では,ボット検出モデルを欺いたノードインジェクションに基づく逆攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T03:09:48Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Detection of Novel Social Bots by Ensembles of Specialized Classifiers [60.63582690037839]
悪意ある俳優は、社会ボットとして知られるアルゴリズムによって部分的に制御される不正なソーシャルメディアアカウントを作成し、誤情報を広め、オンラインでの議論を扇動する。
異なるタイプのボットが、異なる行動特徴によって特徴づけられることを示す。
本稿では,ボットのクラスごとに専門的な分類器を訓練し,それらの決定を最大ルールで組み合わせる,教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T22:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。