論文の概要: How "troll" are you? Measuring and detecting troll behavior in online
social networks
- arxiv url: http://arxiv.org/abs/2210.08786v1
- Date: Mon, 17 Oct 2022 07:01:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 21:51:13.644637
- Title: How "troll" are you? Measuring and detecting troll behavior in online
social networks
- Title(参考訳): あなたはどのように「トロール」していますか。
オンラインソーシャルネットワークにおけるトロール行動の測定と検出
- Authors: Fatima Ezzeddine and Luca Luceri and Omran Ayoub and Ihab Sbeity and
Gianluca Nogara and Emilio Ferrara and Silvia Giordano
- Abstract要約: 本稿では,トロルアカウント検出のための新しい手法を提案する。
最初のステップは、トロールアカウントまたはオーガニックユーザアカウントに属するアカウントのオンラインアクティビティの軌跡を分類することを目的としている。
第2のステップでは、分類された軌跡を利用してメトリック、すなわち「トロールスコア」を計算し、アカウントがトロルのように振る舞う程度を定量化します。
- 参考スコア(独自算出の注目度): 6.683848612847142
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The detection of state-sponsored trolls acting in misinformation operations
is an unsolved and critical challenge for the research community, with
repercussions that go beyond the online realm. In this paper, we propose a
novel approach for the detection of troll accounts, which consists of two
steps. The first step aims at classifying trajectories of accounts' online
activities as belonging to either a troll account or to an organic user
account. In the second step, we exploit the classified trajectories to compute
a metric, namely "troll score", which allows us to quantify the extent to which
an account behaves like a troll. Experimental results show that our approach
identifies accounts' trajectories with an AUC close to 99% and, accordingly,
classify trolls and organic users with an AUC of 97%. Finally, we evaluate
whether the proposed solution can be generalized to different contexts (e.g.,
discussions about Covid-19) and generic misbehaving users, showing promising
results that will be further expanded in our future endeavors.
- Abstract(参考訳): 偽情報操作で国家が支援するトロルが検出されることは、研究コミュニティにとって未解決かつ重要な課題であり、オンラインの領域を超えている。
本稿では,2つのステップからなるトロルアカウントの検出手法を提案する。
最初のステップは、トロールアカウントまたはオーガニックユーザアカウントに属するアカウントのオンラインアクティビティの軌跡を分類することを目的としている。
第2のステップでは、分類された軌跡を利用してメトリック、すなわち「トロールスコア」を計算し、アカウントがトロルのように振る舞う程度を定量化します。
実験の結果,本手法は,aucの99%近くでアカウントの軌跡を識別し,aucの97%でトロルとオーガニックユーザを分類した。
最後に、提案手法がさまざまな状況(例えば、Covid-19に関する議論)と一般的な誤動作ユーザに一般化できるかどうかを評価し、今後の取り組みでさらに拡張されるであろう有望な結果を示す。
関連論文リスト
- Debiasing Large Visual Language Models [61.6896704217147]
LVLM(Large Vision-Language Models)は、コンピュータビジョンや自然言語処理において欠かせないツールとなっている。
本研究は,入力画像に先行するLarge Language Models (LLM) の影響を主に受け,生成したコンテンツに有意なバイアスが生じることを示す。
これらのバイアスを是正し、視覚情報に対するモデルの焦点をリダイレクトするために、我々は2つの単純で訓練のない戦略を導入する。
論文 参考訳(メタデータ) (2024-03-08T12:35:07Z) - Machine Translation Meta Evaluation through Translation Accuracy
Challenge Sets [92.38654521870444]
ACESは146の言語ペアにまたがる対照的な課題セットです。
このデータセットは、メトリクスが68の翻訳精度の誤差を識別できるかどうかを調べることを目的としている。
我々は、WMT2022および2023のメトリクス共有タスクに提出された50のメトリクスに対して、ACESをベンチマークすることで、大規模な研究を行う。
論文 参考訳(メタデータ) (2024-01-29T17:17:42Z) - Self-Improving for Zero-Shot Named Entity Recognition with Large
Language Models [17.344962440045624]
本研究は,強力な大言語モデル(LLM)を用いたゼロショットNERの境界を推し進める可能性を検討することを目的とする。
NER上でのLLMの自己学習能力を刺激するためにラベルのないコーパスを利用する自己改善フレームワークを提案する。
我々は、選択した自己アノテーションによる実演を用いて、コンテキスト内学習によるテストクエリの推論を行う。
論文 参考訳(メタデータ) (2023-11-15T12:47:52Z) - Leveraging Large Language Models to Detect Influence Campaigns in Social
Media [9.58546889761175]
ソーシャルメディアの影響は、大衆の言論や民主主義に重大な課題をもたらしている。
従来の検出方法は、ソーシャルメディアの複雑さとダイナミックな性質のために不足している。
本稿では,ユーザメタデータとネットワーク構造の両方を組み込んだLarge Language Models (LLM) を用いた新しい検出手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T00:25:09Z) - Stance Detection with Collaborative Role-Infused LLM-Based Agents [43.42514843863705]
スタンス検出は、ウェブおよびソーシャルメディア研究におけるコンテンツ分析に不可欠である。
しかし、姿勢検出には、著者の暗黙の視点を推測する高度な推論が必要である。
LLMを異なる役割に指定した3段階のフレームワークを設計する。
複数のデータセットにまたがって最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-10-16T14:46:52Z) - Shifting Attention to Relevance: Towards the Uncertainty Estimation of
Large Language Models [28.67546891608135]
大規模言語モデル (LLMs) は, 自然言語生成や命令の追従において, 顕著な可能性を示している。
不確実性定量化(UQ)は有望なソリューションであり、LLMのコンテキスト内での正確な実装は依然として大きなハードルである。
我々は,より関連性の高いコンポーネントへの注意をトークンレベルと文レベルの両方で協調的にシフトし,正確な不確かさを推定する。
論文 参考訳(メタデータ) (2023-07-03T22:17:16Z) - Pushing the Limits of ChatGPT on NLP Tasks [79.17291002710517]
ChatGPTの成功にもかかわらず、ほとんどのNLPタスクのパフォーマンスは教師付きベースラインよりかなり低い。
そこで本研究では,原因を調べた結果,以下の要因が原因であることが判明した。
NLPタスクにおけるChatGPTの限界を押し上げるために,これらの問題に対処する汎用モジュールの集合を提案する。
論文 参考訳(メタデータ) (2023-06-16T09:40:05Z) - ReAct: Synergizing Reasoning and Acting in Language Models [44.746116256516046]
大規模言語モデル (LLM) は, 推論トレースとタスク固有動作の両方を, インターリーブ方式で生成可能であることを示す。
我々はReActという名前のアプローチを多種多様な言語と意思決定タスクに適用する。
ReActは、単純なウィキペディアAPIと対話することで、チェーン・オブ・ソート推論でよく見られる幻覚やエラーの伝播の問題を克服する。
論文 参考訳(メタデータ) (2022-10-06T01:00:32Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - Learning to Infer User Hidden States for Online Sequential Advertising [52.169666997331724]
本稿では,これらの問題に対処するディープインテントシーケンス広告(DISA)手法を提案する。
解釈可能性の鍵となる部分は、消費者の購入意図を理解することである。
論文 参考訳(メタデータ) (2020-09-03T05:12:26Z) - Off-policy Evaluation in Infinite-Horizon Reinforcement Learning with
Latent Confounders [62.54431888432302]
無限水平エルゴードマルコフ決定過程におけるOPE問題について考察する。
我々は、状態と行動の潜在変数モデルのみを考慮すれば、政策値が政治外のデータから特定できることを示す。
論文 参考訳(メタデータ) (2020-07-27T22:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。