論文の概要: Detecting and Reasoning of Deleted Tweets before they are Posted
- arxiv url: http://arxiv.org/abs/2305.04927v1
- Date: Fri, 5 May 2023 08:25:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 14:50:54.488075
- Title: Detecting and Reasoning of Deleted Tweets before they are Posted
- Title(参考訳): 投稿前に削除されたツイートの検出と推論
- Authors: Hamdy Mubarak, Samir Abdaljalil, Azza Nassar and Firoj Alam
- Abstract要約: 削除されたツイート、特にアラビアの文脈内で識別し、それに対応するきめ細かい偽情報カテゴリにラベル付けします。
次に、削除されるツイートの可能性を予測できるモデルを開発します。
- 参考スコア(独自算出の注目度): 5.300190188468289
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Social media platforms empower us in several ways, from information
dissemination to consumption. While these platforms are useful in promoting
citizen journalism, public awareness etc., they have misuse potentials.
Malicious users use them to disseminate hate-speech, offensive content, rumor
etc. to gain social and political agendas or to harm individuals, entities and
organizations. Often times, general users unconsciously share information
without verifying it, or unintentionally post harmful messages. Some of such
content often get deleted either by the platform due to the violation of terms
and policies, or users themselves for different reasons, e.g., regrets. There
is a wide range of studies in characterizing, understanding and predicting
deleted content. However, studies which aims to identify the fine-grained
reasons (e.g., posts are offensive, hate speech or no identifiable reason)
behind deleted content, are limited. In this study we address this gap, by
identifying deleted tweets, particularly within the Arabic context, and
labeling them with a corresponding fine-grained disinformation category. We
then develop models that can predict the potentiality of tweets getting
deleted, as well as the potential reasons behind deletion. Such models can help
in moderating social media posts before even posting.
- Abstract(参考訳): ソーシャルメディアプラットフォームは、情報発信から消費まで、さまざまな方法で私たちに力を与えてくれます。
これらのプラットフォームは市民ジャーナリズムや公衆の意識を高めるのに役立ちますが、誤用の可能性もあります。
悪意のあるユーザーは、ヘイトスピーチ、不快なコンテンツ、噂などを広め、社会的、政治的議題を得たり、個人、団体、組織を傷つけたりするために使用する。
多くの場合、一般ユーザーは検証せずに無意識に情報を共有したり、意図せずに有害なメッセージを投稿したりする。
このようなコンテンツのいくつかは、用語やポリシーに違反しているため、プラットフォームによって削除されるか、ユーザー自身が異なる理由、例えば後悔のために削除される。
削除されたコンテンツの特徴付け、理解、予測に関する幅広い研究がある。
しかし、削除されたコンテンツの背後にあるきめ細かい理由(投稿は攻撃的、憎しみの言葉、識別できない理由など)を特定する研究は限られている。
本研究では,削除したツイートを特にアラビア語の文脈内で識別し,それに対応する微粒な偽情報カテゴリにラベル付けすることで,このギャップに対処する。
次に、削除されたツイートの可能性を予測し、削除の背後にある潜在的な理由を予測するモデルを開発した。
このようなモデルは、投稿する前にソーシャルメディア投稿をモデレートするのに役立ちます。
関連論文リスト
- Causal Understanding of Why Users Share Hate Speech on Social Media [23.128421664169654]
我々は、ユーザーがヘイトスピーチを再共有するユーザ属性の包括的、因果的分析を示す。
我々は新しい3段階の因果関係の枠組みを開発する。
フォロワーが減り、友達も減り、投稿も減り、ヘイトスピーチが増えた。
論文 参考訳(メタデータ) (2023-10-24T12:17:48Z) - Can Sensitive Information Be Deleted From LLMs? Objectives for Defending
Against Extraction Attacks [73.53327403684676]
本稿では,モデル重みから直接センシティブな情報を削除する作業を研究するためのアタック・アンド・ディフェンスフレームワークを提案する。
モデル重み付けへの直接的編集について検討する。この手法は、削除された情報が将来的な攻撃によって抽出されないことを保証すべきである。
我々のホワイトボックスやブラックボックス攻撃は、編集されたモデルの38%から「削除された」情報を復元できるので、ROMEのような最先端のモデル編集方法でさえ、GPT-Jのようなモデルから事実情報を真に消し去るのに苦労している。
論文 参考訳(メタデータ) (2023-09-29T17:12:43Z) - Topological Data Mapping of Online Hate Speech, Misinformation, and
General Mental Health: A Large Language Model Based Study [6.803493330690884]
機械学習と大規模言語モデルの最近の進歩は、そのような分析を可能にした。
本研究では,ソーシャルメディアサイトReddit上で,慎重に選択されたコミュニティから何千もの投稿を収集した。
各種コミュニティにおけるヘイトスピーチ/誤情報の役割を理解するため,埋め込みに基づく各種機械学習分類を行った。
論文 参考訳(メタデータ) (2023-09-22T15:10:36Z) - Manipulating Twitter Through Deletions [64.33261764633504]
Twitter上でのインフルエンスキャンペーンの研究は、公開APIを通じて得られたツイートから悪意のあるアクティビティを識別することに大きく依存している。
ここでは,1100万以上のアカウントによる10億以上の削除を含む,異常な削除パターンを網羅的かつ大規模に分析する。
少数のアカウントが毎日大量のツイートを削除していることがわかった。
まず、ツイートのボリューム制限が回避され、特定のアカウントが毎日2600万以上のツイートをネットワークに流すことができる。
第二に、調整されたアカウントのネットワークは、繰り返しのいいね!や、最終的に削除されるコンテンツとは違って、ランキングアルゴリズムを操作できる。
論文 参考訳(メタデータ) (2022-03-25T20:07:08Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - "I Won the Election!": An Empirical Analysis of Soft Moderation
Interventions on Twitter [0.9391375268580806]
ツイートをTwitter上で警告ラベルで共有するユーザとその政治的傾向について検討する。
警告ラベル付きツイートの72%が共和党員、1%が民主党員だ。
論文 参考訳(メタデータ) (2021-01-18T17:39:58Z) - Deceptive Deletions for Protecting Withdrawn Posts on Social Platforms [21.924023700334065]
敵の優位性を最小限に抑えるデコイ機構であるDeceptive Deletionを導入する。
我々は、強力な世界的敵が強力な挑戦者によって打ち負かされることを示す。
論文 参考訳(メタデータ) (2020-05-28T16:08:33Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。