論文の概要: LAMBRETTA: Learning to Rank for Twitter Soft Moderation
- arxiv url: http://arxiv.org/abs/2212.05926v1
- Date: Mon, 12 Dec 2022 14:41:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:57:50.699395
- Title: LAMBRETTA: Learning to Rank for Twitter Soft Moderation
- Title(参考訳): LAMBRETTA: Twitterのソフトモデレーションでランク付けを学ぶ
- Authors: Pujan Paudel, Jeremy Blackburn, Emiliano De Cristofaro, Savvas
Zannettou, and Gianluca Stringhini
- Abstract要約: LAMBRETTAは、ソフトモデレーションの候補となるツイートを自動的に識別するシステムである。
私たちは、LAMBRETTAをTwitterのデータ上で実行し、2020年の米大統領選に関する虚偽の主張を穏健にしています。
ツイート数はTwitterの20倍以上で、偽陽性は3.93%、偽陰性は18.81%だった。
- 参考スコア(独自算出の注目度): 11.319938541673578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To curb the problem of false information, social media platforms like Twitter
started adding warning labels to content discussing debunked narratives, with
the goal of providing more context to their audiences. Unfortunately, these
labels are not applied uniformly and leave large amounts of false content
unmoderated. This paper presents LAMBRETTA, a system that automatically
identifies tweets that are candidates for soft moderation using Learning To
Rank (LTR). We run LAMBRETTA on Twitter data to moderate false claims related
to the 2020 US Election and find that it flags over 20 times more tweets than
Twitter, with only 3.93% false positives and 18.81% false negatives,
outperforming alternative state-of-the-art methods based on keyword extraction
and semantic search. Overall, LAMBRETTA assists human moderators in identifying
and flagging false information on social media.
- Abstract(参考訳): 偽情報の問題を抑制するため、twitterのようなソーシャルメディアプラットフォームは、削除された物語を議論するコンテンツに警告ラベルを追加し始めた。
残念なことに、これらのラベルは一様に適用されず、大量の偽コンテンツは調整されない。
本稿では,Learning To Rank (LTR) を用いたソフトモデレーション候補であるツイートを自動的に識別するシステム LAMBRETTA を提案する。
私たちはtwitterのデータを使って、2020年のアメリカ大統領選挙に関連する虚偽の主張を控えめに調べ、twitterがtwitterの20倍以上のツイートを警告していることを突き止め、偽陽性は3.93%、偽陰性は18.81%で、キーワード抽出とセマンティック検索に基づく代替的方法よりも優れていると結論づけました。
全体として、LAMBRETTAはソーシャルメディア上の偽情報を識別し、フラグ付けする人間のモデレーターを支援する。
関連論文リスト
- Russo-Ukrainian War: Prediction and explanation of Twitter suspension [47.61306219245444]
本研究は、Twitterのサスペンション機構と、これにつながる可能性のあるユーザアカウントの共有コンテンツと機能の分析に焦点を当てる。
Twitter APIを使って、980万人のユーザーから生まれた107.7万のツイートを含むデータセットを入手しました。
この結果から、Bitcoin詐欺、スパム、広告キャンペーンに対するロシアとウクライナの紛争に関するトレンドを生かした詐欺キャンペーンが明らかになった。
論文 参考訳(メタデータ) (2023-06-06T08:41:02Z) - Retweet-BERT: Political Leaning Detection Using Language Features and
Information Diffusion on Social Networks [30.143148646797265]
Retweet-BERTは、シンプルでスケーラブルなモデルで、Twitterユーザーの政治的傾向を推定する。
我々の仮定は、同様のイデオロギーを共有する人々の間で、ネットワークや言語学のパターンがホモフィリーであることに由来する。
論文 参考訳(メタデータ) (2022-07-18T02:18:20Z) - Manipulating Twitter Through Deletions [64.33261764633504]
Twitter上でのインフルエンスキャンペーンの研究は、公開APIを通じて得られたツイートから悪意のあるアクティビティを識別することに大きく依存している。
ここでは,1100万以上のアカウントによる10億以上の削除を含む,異常な削除パターンを網羅的かつ大規模に分析する。
少数のアカウントが毎日大量のツイートを削除していることがわかった。
まず、ツイートのボリューム制限が回避され、特定のアカウントが毎日2600万以上のツイートをネットワークに流すことができる。
第二に、調整されたアカウントのネットワークは、繰り返しのいいね!や、最終的に削除されるコンテンツとは違って、ランキングアルゴリズムを操作できる。
論文 参考訳(メタデータ) (2022-03-25T20:07:08Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - BERT based classification system for detecting rumours on Twitter [3.2872586139884623]
従来の特徴抽出手法ではなく,Twitter上での噂を識別する手法を提案する。
BERTを用いた文埋め込みを用いて、ツイートの文脈的意味に応じて、各ツイートの文をベクターに表現する。
BERTをベースとしたモデルでは,従来の手法に比べて約10%精度が向上した。
論文 参考訳(メタデータ) (2021-09-07T10:15:54Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - "I Won the Election!": An Empirical Analysis of Soft Moderation
Interventions on Twitter [0.9391375268580806]
ツイートをTwitter上で警告ラベルで共有するユーザとその政治的傾向について検討する。
警告ラベル付きツイートの72%が共和党員、1%が民主党員だ。
論文 参考訳(メタデータ) (2021-01-18T17:39:58Z) - Predicting Misinformation and Engagement in COVID-19 Twitter Discourse
in the First Months of the Outbreak [1.2059055685264957]
新型コロナウイルス(COVID-19)関連ツイート50万件近くを調べ、ボット行動とエンゲージメントの機能として誤情報を理解する。
実際のユーザーは事実と誤情報の両方をツイートし、ボットは偽情報よりも比例的にツイートしていることがわかった。
論文 参考訳(メタデータ) (2020-12-03T18:47:34Z) - Russian trolls speaking Russian: Regional Twitter operations and MH17 [68.8204255655161]
2018年、Twitterはロシアのトロルとして特定されたアカウントのデータを公開した。
我々はこれらのトロルのロシア語操作を分析する。
MH17の事故に関するトロルズの情報キャンペーンは、ツイート数で最大のものだった。
論文 参考訳(メタデータ) (2020-05-13T19:48:12Z) - Privacy-Aware Recommender Systems Challenge on Twitter's Home Timeline [47.434392695347924]
ACM RecSysが主催するRecSys 2020 Challengeは、このデータセットを使用してTwitterと提携している。
本稿では,ユーザエンゲージメントを予測しようとする研究者や専門家が直面する課題について述べる。
論文 参考訳(メタデータ) (2020-04-28T23:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。