論文の概要: Detecting Propagators of Disinformation on Twitter Using Quantitative
Discursive Analysis
- arxiv url: http://arxiv.org/abs/2210.05760v1
- Date: Tue, 11 Oct 2022 20:11:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 15:04:17.712766
- Title: Detecting Propagators of Disinformation on Twitter Using Quantitative
Discursive Analysis
- Title(参考訳): 定量的判別分析によるTwitter上の偽情報の伝達者検出
- Authors: Mark M. Bailey
- Abstract要約: 本研究では,共振中心分析とクローゼット・ニューマン・ムーアコミュニティ検出を用いて,Twitter上でロシア語の偽情報を識別する手法を提案する。
このデータは、2016年アメリカ合衆国大統領選挙の期間に、既知のロシアの偽情報ボットとTwitterユーザーのコントロールセットの間に、相当な分散的な相違を反映している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Efforts by foreign actors to influence public opinion have gained
considerable attention because of their potential to impact democratic
elections. Thus, the ability to identify and counter sources of disinformation
is increasingly becoming a top priority for government entities in order to
protect the integrity of democratic processes. This study presents a method of
identifying Russian disinformation bots on Twitter using centering resonance
analysis and Clauset-Newman-Moore community detection. The data reflect a
significant degree of discursive dissimilarity between known Russian
disinformation bots and a control set of Twitter users during the timeframe of
the 2016 U.S. Presidential Election. The data also demonstrate statistically
significant classification capabilities (MCC = 0.9070) based on community
clustering. The prediction algorithm is very effective at identifying true
positives (bots), but is not able to resolve true negatives (non-bots) because
of the lack of discursive similarity between control users. This leads to a
highly sensitive means of identifying propagators of disinformation with a high
degree of discursive similarity on Twitter, with implications for limiting the
spread of disinformation that could impact democratic processes.
- Abstract(参考訳): 世論に影響を及ぼす外国の俳優たちの努力は、民主的な選挙に影響を及ぼす可能性から、かなりの注目を集めている。
このように、民主的プロセスの完全性を保護するため、情報発信源の特定・対応能力は、行政機関にとって最優先事項になりつつある。
本研究では, 中央共振解析とClaust-Newman-Mooreコミュニティ検出を用いて, Twitter上でのロシアの偽情報ボットの識別手法を提案する。
このデータは、2016年アメリカ合衆国大統領選挙の期間に、既知のロシアの偽情報ボットとTwitterユーザーのコントロールセットの間に、相当量の異変を反映している。
データは、コミュニティクラスタリングに基づく統計的に重要な分類能力(MCC = 0.9070)も示す。
予測アルゴリズムは、真の正(ボット)を特定するのに非常に効果的であるが、制御ユーザ間の離散的な類似性の欠如により、真の負(非ボット)を解決できない。
このことは、Twitter上で偽情報のプロパゲータを高度に分散した類似性で識別し、民主的プロセスに影響を与える偽情報の拡散を制限するための非常に敏感な手段につながっている。
関連論文リスト
- On the Use of Proxies in Political Ad Targeting [49.61009579554272]
我々は、主要な政治広告主がプロキシ属性をターゲットとして緩和を回避したことを示す。
本研究は政治広告の規制に関する議論に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-10-18T17:15:13Z) - MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Detecting Political Opinions in Tweets through Bipartite Graph Analysis:
A Skip Aggregation Graph Convolution Approach [9.350629400940493]
私たちは2020年の米国大統領選挙に集中し、Twitterから大規模なデータセットを作成します。
ツイート中の政治的意見を検出するために,ユーザの投稿行動とリツイート行動に基づいて,ユーザツイートの2部グラフを構築した。
ツイートノードに2階隣人からの情報を集約する新しいスキップアグリゲーション機構を導入する。
論文 参考訳(メタデータ) (2023-04-22T10:38:35Z) - Design and analysis of tweet-based election models for the 2021 Mexican
legislative election [55.41644538483948]
選挙日前の6ヶ月の間に、1500万件の選挙関連ツイートのデータセットを使用します。
地理的属性を持つデータを用いたモデルが従来のポーリング法よりも精度と精度で選挙結果を決定することがわかった。
論文 参考訳(メタデータ) (2023-01-02T12:40:05Z) - Machine Learning-based Automatic Annotation and Detection of COVID-19
Fake News [8.020736472947581]
新型コロナウイルス(COVID-19)は世界のあらゆる地域に影響を与えるが、感染の誤報はウイルスよりも速く移動した。
既存の作業は、拡散の触媒として働くボットの存在を無視する。
そこで本稿では,Twitterデータセット上で事実確認文をラベル付けする手法を提案する。
論文 参考訳(メタデータ) (2022-09-07T13:55:59Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Defending Democracy: Using Deep Learning to Identify and Prevent
Misinformation [0.0]
本研究では、公開Twitterデータを用いて、ソーシャルメディア上での誤情報拡散の分類と可視化を行う。
この研究は、偽情報検出のためのスケーラブルなモデルを提供するためのBERTの適合性をさらに示す。
論文 参考訳(メタデータ) (2021-06-03T16:34:54Z) - Leveraging Administrative Data for Bias Audits: Assessing Disparate
Coverage with Mobility Data for COVID-19 Policy [61.60099467888073]
管理データのリンクによって,バイアスに対するモビリティデータの監査が可能かを示す。
我々は、高齢者や非白人の有権者が移動データによって捕えられる可能性が低いことを示した。
このような移動データに基づく公衆衛生資源の配分は、高リスク高齢者や少数民族に不当に害を与える可能性があることを示す。
論文 参考訳(メタデータ) (2020-11-14T02:04:14Z) - How Twitter Data Sampling Biases U.S. Voter Behavior Characterizations [6.364128212193265]
近年の研究では、悪質な社会ボットやトロルのような不正なアクターの存在が明らかにされている。
本稿では,2018年米国中間選挙のTwitterデータを用いて,このギャップを埋めることを目的としている。
ハイパーアクティブアカウントは、様々な不審な振る舞いを示し、低信頼度情報を共有する傾向にあることを示す。
論文 参考訳(メタデータ) (2020-06-02T08:33:30Z) - Automatic Detection of Influential Actors in Disinformation Networks [0.0]
本稿では,偽情報物語やネットワーク,影響力あるアクターの検出を自動化するためのエンドツーエンドフレームワークを提案する。
システムは精度96%、リコール79%、PR曲線96%のIOアカウントを検出する。
結果は、米国議会の報告書、調査ジャーナリズム、Twitterが提供するIOデータセットからの、既知のIOアカウントの独立したソースと相関している。
論文 参考訳(メタデータ) (2020-05-21T20:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。