論文の概要: How "troll" are you? Measuring and detecting troll behavior in online
social networks
- arxiv url: http://arxiv.org/abs/2210.08786v1
- Date: Mon, 17 Oct 2022 07:01:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 21:51:13.644637
- Title: How "troll" are you? Measuring and detecting troll behavior in online
social networks
- Title(参考訳): あなたはどのように「トロール」していますか。
オンラインソーシャルネットワークにおけるトロール行動の測定と検出
- Authors: Fatima Ezzeddine and Luca Luceri and Omran Ayoub and Ihab Sbeity and
Gianluca Nogara and Emilio Ferrara and Silvia Giordano
- Abstract要約: 本稿では,トロルアカウント検出のための新しい手法を提案する。
最初のステップは、トロールアカウントまたはオーガニックユーザアカウントに属するアカウントのオンラインアクティビティの軌跡を分類することを目的としている。
第2のステップでは、分類された軌跡を利用してメトリック、すなわち「トロールスコア」を計算し、アカウントがトロルのように振る舞う程度を定量化します。
- 参考スコア(独自算出の注目度): 6.683848612847142
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The detection of state-sponsored trolls acting in misinformation operations
is an unsolved and critical challenge for the research community, with
repercussions that go beyond the online realm. In this paper, we propose a
novel approach for the detection of troll accounts, which consists of two
steps. The first step aims at classifying trajectories of accounts' online
activities as belonging to either a troll account or to an organic user
account. In the second step, we exploit the classified trajectories to compute
a metric, namely "troll score", which allows us to quantify the extent to which
an account behaves like a troll. Experimental results show that our approach
identifies accounts' trajectories with an AUC close to 99% and, accordingly,
classify trolls and organic users with an AUC of 97%. Finally, we evaluate
whether the proposed solution can be generalized to different contexts (e.g.,
discussions about Covid-19) and generic misbehaving users, showing promising
results that will be further expanded in our future endeavors.
- Abstract(参考訳): 偽情報操作で国家が支援するトロルが検出されることは、研究コミュニティにとって未解決かつ重要な課題であり、オンラインの領域を超えている。
本稿では,2つのステップからなるトロルアカウントの検出手法を提案する。
最初のステップは、トロールアカウントまたはオーガニックユーザアカウントに属するアカウントのオンラインアクティビティの軌跡を分類することを目的としている。
第2のステップでは、分類された軌跡を利用してメトリック、すなわち「トロールスコア」を計算し、アカウントがトロルのように振る舞う程度を定量化します。
実験の結果,本手法は,aucの99%近くでアカウントの軌跡を識別し,aucの97%でトロルとオーガニックユーザを分類した。
最後に、提案手法がさまざまな状況(例えば、Covid-19に関する議論)と一般的な誤動作ユーザに一般化できるかどうかを評価し、今後の取り組みでさらに拡張されるであろう有望な結果を示す。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Beyond Trial-and-Error: Predicting User Abandonment After a Moderation Intervention [0.6918368994425961]
本稿では,Redditにおけるモデレーション介入の効果を予測する新しいタスクを提案する。
ユーザの活動、毒性、関係性、書き込みスタイルに関する情報を伝達する142の機能のセットを計算するために、138万の投稿のデータセットを使用します。
本研究は,モデレーション介入の効果を予測できる可能性を示し,予測コンテンツのモデレーションにおける新たな研究方向の道を開くものである。
論文 参考訳(メタデータ) (2024-04-23T08:52:41Z) - Debiasing Multimodal Large Language Models [61.6896704217147]
LVLM(Large Vision-Language Models)は、コンピュータビジョンや自然言語処理において欠かせないツールとなっている。
本研究は,入力画像に先行するLarge Language Models (LLM) の影響を主に受け,生成したコンテンツに有意なバイアスが生じることを示す。
これらのバイアスを是正し、視覚情報に対するモデルの焦点をリダイレクトするために、我々は2つの単純で訓練のない戦略を導入する。
論文 参考訳(メタデータ) (2024-03-08T12:35:07Z) - Machine Translation Meta Evaluation through Translation Accuracy
Challenge Sets [92.38654521870444]
ACESは146の言語ペアにまたがる対照的な課題セットです。
このデータセットは、メトリクスが68の翻訳精度の誤差を識別できるかどうかを調べることを目的としている。
我々は、WMT2022および2023のメトリクス共有タスクに提出された50のメトリクスに対して、ACESをベンチマークすることで、大規模な研究を行う。
論文 参考訳(メタデータ) (2024-01-29T17:17:42Z) - Leveraging Large Language Models to Detect Influence Campaigns in Social
Media [9.58546889761175]
ソーシャルメディアの影響は、大衆の言論や民主主義に重大な課題をもたらしている。
従来の検出方法は、ソーシャルメディアの複雑さとダイナミックな性質のために不足している。
本稿では,ユーザメタデータとネットワーク構造の両方を組み込んだLarge Language Models (LLM) を用いた新しい検出手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T00:25:09Z) - Stance Detection with Collaborative Role-Infused LLM-Based Agents [39.75103353173015]
スタンス検出は、ウェブおよびソーシャルメディア研究におけるコンテンツ分析に不可欠である。
しかし、姿勢検出には、著者の暗黙の視点を推測する高度な推論が必要である。
LLMを異なる役割に指定した3段階のフレームワークを設計する。
複数のデータセットにまたがって最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-16T14:46:52Z) - Language Agent Tree Search Unifies Reasoning Acting and Planning in Language Models [31.509994889286183]
我々はLanguage Agent Tree Search (LATS)を紹介した。Language Agent Tree Search (LATS)は、推論、行動、計画において言語モデル(LM)の能力を相乗化する最初の一般的なフレームワークである。
当社のアプローチの重要な特徴は、より意図的で適応的な問題解決メカニズムを提供する外部フィードバック環境の導入である。
LATSは、GPT-4でHumanEval上でプログラミングするための最先端パス@1精度(92.7%)を達成し、GPTによるWebShop上のWebナビゲーションの勾配ベースの微調整に匹敵する勾配なし性能(平均スコア75.9)を示す。
論文 参考訳(メタデータ) (2023-10-06T17:55:11Z) - ReAct: Synergizing Reasoning and Acting in Language Models [44.746116256516046]
大規模言語モデル (LLM) は, 推論トレースとタスク固有動作の両方を, インターリーブ方式で生成可能であることを示す。
我々はReActという名前のアプローチを多種多様な言語と意思決定タスクに適用する。
ReActは、単純なウィキペディアAPIと対話することで、チェーン・オブ・ソート推論でよく見られる幻覚やエラーの伝播の問題を克服する。
論文 参考訳(メタデータ) (2022-10-06T01:00:32Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - Learning to Infer User Hidden States for Online Sequential Advertising [52.169666997331724]
本稿では,これらの問題に対処するディープインテントシーケンス広告(DISA)手法を提案する。
解釈可能性の鍵となる部分は、消費者の購入意図を理解することである。
論文 参考訳(メタデータ) (2020-09-03T05:12:26Z) - Off-policy Evaluation in Infinite-Horizon Reinforcement Learning with
Latent Confounders [62.54431888432302]
無限水平エルゴードマルコフ決定過程におけるOPE問題について考察する。
我々は、状態と行動の潜在変数モデルのみを考慮すれば、政策値が政治外のデータから特定できることを示す。
論文 参考訳(メタデータ) (2020-07-27T22:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。