論文の概要: Hostility Detection in UK Politics: A Dataset on Online Abuse Targeting MPs
- arxiv url: http://arxiv.org/abs/2412.04046v1
- Date: Thu, 05 Dec 2024 10:37:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:41:26.916336
- Title: Hostility Detection in UK Politics: A Dataset on Online Abuse Targeting MPs
- Title(参考訳): 英国政治におけるホスト性検出 - オンライン不正ターゲットMPのデータセット
- Authors: Mugdha Pandya, Mali Jin, Kalina Bontcheva, Diana Maynard,
- Abstract要約: 政治家は通常、政府の役割に関連しているが、コメントは個人のアイデンティティを攻撃する傾向がある。
英国議会議員に対する敵意を手動で注釈付けした2年間の英語ツイート3,320件のデータセットを構築した。
我々は、英国政治データのユニークな内容を調べるために、言語学的および話題的分析を行う。
- 参考スコア(独自算出の注目度): 3.3760198210089345
- License:
- Abstract: Numerous politicians use social media platforms, particularly X, to engage with their constituents. This interaction allows constituents to pose questions and offer feedback but also exposes politicians to a barrage of hostile responses, especially given the anonymity afforded by social media. They are typically targeted in relation to their governmental role, but the comments also tend to attack their personal identity. This can discredit politicians and reduce public trust in the government. It can also incite anger and disrespect, leading to offline harm and violence. While numerous models exist for detecting hostility in general, they lack the specificity required for political contexts. Furthermore, addressing hostility towards politicians demands tailored approaches due to the distinct language and issues inherent to each country (e.g., Brexit for the UK). To bridge this gap, we construct a dataset of 3,320 English tweets spanning a two-year period manually annotated for hostility towards UK MPs. Our dataset also captures the targeted identity characteristics (race, gender, religion, none) in hostile tweets. We perform linguistic and topical analyses to delve into the unique content of the UK political data. Finally, we evaluate the performance of pre-trained language models and large language models on binary hostility detection and multi-class targeted identity type classification tasks. Our study offers valuable data and insights for future research on the prevalence and nature of politics-related hostility specific to the UK.
- Abstract(参考訳): 多くの政治家がソーシャルメディアプラットフォーム、特にXを使って構成員と交流している。
この相互作用により、有権者は質問をしたり、フィードバックを提供したりできるが、特にソーシャルメディアの匿名性を考えると、政治家は敵対的な反応の嫌悪感に晒される。
それらは通常、政府の役割に関連しているが、コメントは個人のアイデンティティを攻撃する傾向がある。
これは政治家を軽視し、政府に対する国民の信頼を低下させる。
また、怒りや軽蔑を招き、暴行や暴力を招きかねない。
敵意を検出するための多くのモデルが存在するが、政治的文脈に必要な特異性は欠如している。
さらに、政治家に対する敵意に対処するためには、それぞれの国固有の言語と問題(例えば、英国のブレグジット)のために、適切なアプローチが必要である。
このギャップを埋めるために、英国議会議員に対する敵意を手動で注釈付けした2年間の英語ツイート3,320件のデータセットを構築した。
私たちのデータセットは、敵対的なツイートにおけるターゲットのアイデンティティ特性(人種、性別、宗教など)もキャプチャします。
我々は、英国政治データのユニークな内容を調べるために、言語学的および話題的分析を行う。
最後に,事前学習した言語モデルと大規模言語モデルの性能を,バイナリホスト性検出とマルチクラスターゲット型分類タスクで評価する。
本研究は、英国固有の政治関連敵意の有病率と性質に関する今後の研究に有用なデータと洞察を提供する。
関連論文リスト
- On the Use of Proxies in Political Ad Targeting [49.61009579554272]
我々は、主要な政治広告主がプロキシ属性をターゲットとして緩和を回避したことを示す。
本研究は政治広告の規制に関する議論に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-10-18T17:15:13Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - From Dogwhistles to Bullhorns: Unveiling Coded Rhetoric with Language
Models [73.25963871034858]
本研究は,イヌヒストルの大規模数値計算による研究である。
我々は、ドッグウィストルの類型学を開発し、300以上のドッグウィストルの過去最大の用語集をキュレートし、歴史的なアメリカの政治家の演説でそれらの使用法を分析した。
犬毛を含む有害なコンテンツは毒性の検出を回避し,このような符号化された言語のオンラインリスクを強調している。
論文 参考訳(メタデータ) (2023-05-26T18:00:57Z) - Design and analysis of tweet-based election models for the 2021 Mexican
legislative election [55.41644538483948]
選挙日前の6ヶ月の間に、1500万件の選挙関連ツイートのデータセットを使用します。
地理的属性を持つデータを用いたモデルが従来のポーリング法よりも精度と精度で選挙結果を決定することがわかった。
論文 参考訳(メタデータ) (2023-01-02T12:40:05Z) - A Spanish dataset for Targeted Sentiment Analysis of political headlines [0.0]
この研究は、2019年のアルゼンチン大統領選挙で主要メディアから公開されたニュースニュースの見出しのドメインに対するターゲティング・センティメント・アナリティクス(Targeted Sentiment Analysis)の課題に対処する。
我々は、2019年の選挙の候補者を対象レベルで言及した1,976人の見出しの極性データセットを提示する。
事前訓練された言語モデルに基づく最先端分類アルゴリズムによる予備実験により,この課題に対象情報が有用であることが示唆された。
論文 参考訳(メタデータ) (2022-08-30T01:30:30Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Negativity Spreads Faster: A Large-Scale Multilingual Twitter Analysis
on the Role of Sentiment in Political Communication [7.136205674624813]
本稿は、欧州3カ国の政治家のツイートを分析しようとするものである。
最先端の事前訓練言語モデルを利用することで、数十万のツイートに対して感情分析を行った。
我々の分析は、政治家の否定的なツイートが、特に最近の時代に広く広まっていることを示している。
論文 参考訳(メタデータ) (2022-02-01T13:25:19Z) - Hate versus Politics: Detection of Hate against Policy makers in Italian
tweets [0.6289422225292998]
本稿では,イタリアにおけるTwitterの政策立案者に対するヘイトスピーチの分類問題について論じる。
1264ツイートを収集,注釈し,アノテータ間の不一致事例を調査し,ドメイン内およびドメイン間ヘイトスピーチ分類を行った。
我々は、ROC AUC 0.83の性能を達成し、最も予測可能な属性を分析し、また、反政治家と反移民ドメインで異なる言語特徴を見出した。
論文 参考訳(メタデータ) (2021-07-12T12:24:45Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Towards Measuring Adversarial Twitter Interactions against Candidates in
the US Midterm Elections [25.374045377135307]
我々は,2018年の米総選挙に臨む米下院の候補者に対する敵対的相互作用を計測する。
我々は、特定の候補に向けられた有害なコンテンツでツイートを検出する新しい手法を開発した。
我々はこれらの手法を用いて、攻撃的名声、暴力の脅威、不信任情報の投稿、アイデンティティへの攻撃、敵対的メッセージの繰り返しなど、選挙で見られる敵の対話の幅を概説する。
論文 参考訳(メタデータ) (2020-05-09T10:00:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。