論文の概要: Adversarial Socialbot Learning via Multi-Agent Deep Hierarchical
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2110.10655v1
- Date: Wed, 20 Oct 2021 16:49:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-23 17:19:56.966785
- Title: Adversarial Socialbot Learning via Multi-Agent Deep Hierarchical
Reinforcement Learning
- Title(参考訳): 多元的階層強化学習による対人ソーシャルボット学習
- Authors: Thai Le, Long Tran-Thanh, Dongwon Lee
- Abstract要約: 本稿では、強化学習(RL)などの計算学習機構を利用して、検出を回避しつつ、ソーシャルボットの影響を最大化することができることを示す。
提案するポリシネットワークは,膨大な合成グラフを用いてトレーニングし,目に見えない実生活グラフのベースラインよりも優れた一般化を行う。
これにより,本手法は実環境に展開する際の現実的な敵攻撃となる。
- 参考スコア(独自算出の注目度): 31.33996447671789
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Socialbots are software-driven user accounts on social platforms, acting
autonomously (mimicking human behavior), with the aims to influence the
opinions of other users or spread targeted misinformation for particular goals.
As socialbots undermine the ecosystem of social platforms, they are often
considered harmful. As such, there have been several computational efforts to
auto-detect the socialbots. However, to our best knowledge, the adversarial
nature of these socialbots has not yet been studied. This begs a question "can
adversaries, controlling socialbots, exploit AI techniques to their advantage?"
To this question, we successfully demonstrate that indeed it is possible for
adversaries to exploit computational learning mechanism such as reinforcement
learning (RL) to maximize the influence of socialbots while avoiding being
detected. We first formulate the adversarial socialbot learning as a
cooperative game between two functional hierarchical RL agents. While one agent
curates a sequence of activities that can avoid the detection, the other agent
aims to maximize network influence by selectively connecting with right users.
Our proposed policy networks train with a vast amount of synthetic graphs and
generalize better than baselines on unseen real-life graphs both in terms of
maximizing network influence (up to +18%) and sustainable stealthiness (up to
+40% undetectability) under a strong bot detector (with 90% detection
accuracy). During inference, the complexity of our approach scales linearly,
independent of a network's structure and the virality of news. This makes our
approach a practical adversarial attack when deployed in a real-life setting.
- Abstract(参考訳): Socialbotsは、ソーシャルプラットフォーム上でのソフトウェア駆動のユーザーアカウントであり、(人間の行動を模倣する)自律的に行動し、他のユーザーの意見に影響を与えることや、特定の目的のためにターゲットの誤情報を広めることを目的としている。
ソーシャルボットは社会プラットフォームのエコシステムを損なうため、しばしば有害と見なされる。
そのため、ソーシャルボットを自動検出する計算作業がいくつか行われている。
しかし、我々の知る限り、これらの社会ボットの敵対的な性質はまだ研究されていない。
この質問は、"敵がソーシャルボットをコントロールし、AIテクニックを有利に活用できるか?
そこで本研究では,敵が強化学習(rl)などの計算学習機構を利用して,検出を回避しつつソーシャルボットの影響を最大化することが可能であることを実証する。
まず,2つの機能的階層的RLエージェント間の協調ゲームとして,対向型ソーシャルボット学習を定式化する。
一方のエージェントは検出を回避できる一連のアクティビティをキュレートする一方、他方のエージェントは、適切なユーザと選択的に接続することで、ネットワークの影響を最大化する。
提案するポリシネットワークは,ネットワークの影響を最大化(最大+18%まで)し,強力なボット検出(90%検出精度)下で持続的ステルス性(最大+40%非検出性)の両方において,膨大な量の合成グラフを訓練し,目に見えない実生活グラフのベースラインよりもよく一般化する。
推論の間、我々のアプローチの複雑さは、ネットワークの構造とニュースのバイラル性から独立して線形にスケールする。
これにより,本手法は実環境に展開する際の現実的な攻撃となる。
関連論文リスト
- Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - SeBot: Structural Entropy Guided Multi-View Contrastive Learning for Social Bot Detection [34.68635583099056]
マルチビューグラフに基づくコントラスト学習型ソーシャルボット検出器SEBotを提案する。
特に、構造エントロピーを不確実性計量として使用して、グラフ全体の構造を最適化する。
そして、ホモフィリーな仮定を超えたメッセージパッシングを可能にするエンコーダを設計する。
論文 参考訳(メタデータ) (2024-05-18T08:16:11Z) - Adversarial Botometer: Adversarial Analysis for Social Bot Detection [1.9280536006736573]
ソーシャルボットは人間の創造性を模倣するコンテンツを制作する。
悪意のあるソーシャルボットは、非現実的なコンテンツで人々を騙すようになる。
テキストベースのボット検出器の動作を競合環境下で評価する。
論文 参考訳(メタデータ) (2024-05-03T11:28:21Z) - User-Like Bots for Cognitive Automation: A Survey [4.075971633195745]
誇大広告にもかかわらず、人間のユーザーのような認知能力を持つボットはまだ存在しない。
運用するデジタルプラットフォームに対する状況認識は欠如している。
我々は、認知アーキテクチャがインテリジェントなソフトウェアボットの作成にどのように貢献するかについて議論する。
論文 参考訳(メタデータ) (2023-11-20T20:16:24Z) - Learning Vision-based Pursuit-Evasion Robot Policies [54.52536214251999]
我々は、部分的に観察可能なロボットの監督を生成する完全観測可能なロボットポリシーを開発する。
我々は、RGB-Dカメラを搭載した4足歩行ロボットに、野生での追従回避のインタラクションにポリシーを展開させる。
論文 参考訳(メタデータ) (2023-08-30T17:59:05Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Intention Aware Robot Crowd Navigation with Attention-Based Interaction
Graph [3.8461692052415137]
本研究では,高密度で対話的な群集における安全かつ意図に配慮したロボットナビゲーションの課題について検討する。
本稿では,エージェント間の異種相互作用を捕捉するアテンション機構を備えた新しいグラフニューラルネットワークを提案する。
提案手法は,群集ナビゲーションのシナリオにおいて,優れたナビゲーション性能と非侵襲性をロボットが実現できることを実証する。
論文 参考訳(メタデータ) (2022-03-03T16:26:36Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。