論文の概要: Statistical Analysis of Risk Assessment Factors and Metrics to Evaluate Radicalisation in Twitter
- arxiv url: http://arxiv.org/abs/2501.16830v1
- Date: Tue, 28 Jan 2025 10:21:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 16:42:51.392853
- Title: Statistical Analysis of Risk Assessment Factors and Metrics to Evaluate Radicalisation in Twitter
- Title(参考訳): Twitterにおけるラディカル化評価のためのリスクアセスメント要因と指標の統計的分析
- Authors: Raul Lara-Cabrera, Antonio Gonzalez-Pardo, David Camacho,
- Abstract要約: ここ数年、ソーシャルネットワークは人々を過激化させるために使われてきた。
本研究では,指標のセットとその指標の性能について検討する。
本稿では,ソーシャル・ネットワークにおける過激化を評価する指標セットと,それを評価するためのデータセットセットの双方について,詳細な説明を行う。
- 参考スコア(独自算出の注目度): 4.198865250277024
- License:
- Abstract: Nowadays, Social Networks have become an essential communication tools producing a large amount of information about their users and their interactions, which can be analysed with Data Mining methods. In the last years, Social Networks are being used to radicalise people. In this paper, we study the performance of a set of indicators and their respective metrics, devoted to assess the risk of radicalisation of a precise individual on three different datasets. Keyword-based metrics, even though depending on the written language, performs well when measuring frustration, perception of discrimination as well as declaration of negative and positive ideas about Western society and Jihadism, respectively. However, metrics based on frequent habits such as writing ellipses are not well enough to characterise a user in risk of radicalisation. The paper presents a detailed description of both, the set of indicators used to asses the radicalisation in Social Networks and the set of datasets used to evaluate them. Finally, an experimental study over these datasets are carried out to evaluate the performance of the metrics considered.
- Abstract(参考訳): 今日では、ソーシャルネットワークは、データマイニング手法を用いて分析可能な、ユーザとそのインタラクションに関する情報を大量に生成する重要なコミュニケーションツールとなっている。
ここ数年、ソーシャルネットワークは人々を過激化させるために使われてきた。
本稿では,3つの異なるデータセット上での精度の高い個人に対する過激化のリスクを評価するために,指標セットとその指標の性能について検討する。
キーワードベースのメトリクスは、書かれた言語にもよるが、フラストレーションの測定、差別の認識、そして西洋社会とジハード主義に関する否定的・肯定的な考えの宣言において、よく機能する。
しかしながら、楕円を書くなどの頻繁な習慣に基づくメトリクスは、過激化のリスクをユーザが特徴づけるのに十分ではない。
本稿では,ソーシャル・ネットワークにおける過激化を評価する指標セットと,それを評価するためのデータセットセットの双方について,詳細な説明を行う。
最後に、これらのデータセットに関する実験的研究を行い、検討した指標の性能を評価する。
関連論文リスト
- Beyond Dataset Creation: Critical View of Annotation Variation and Bias Probing of a Dataset for Online Radical Content Detection [5.509174347606238]
我々は、ラディゼーションレベル、行動呼び出し、英語、フランス語、アラビア語で名前付きエンティティを注釈付けした、一般公開された多言語データセットを紹介します。
このデータセットは、コンテキスト情報を保持しながら個人のプライバシを保護するために匿名化される。
我々はアノテーションのプロセスを分析し、アノテータ間のバイアスと不一致を強調し、それらがモデル性能に与える影響を明らかにする。
論文 参考訳(メタデータ) (2024-12-16T13:03:43Z) - Assessing the Level of Toxicity Against Distinct Groups in Bangla Social Media Comments: A Comprehensive Investigation [0.0]
本研究は, トランスジェンダー, 先住民, 移民の3つの特定のグループを対象として, ベンガル語における有毒なコメントを同定することに焦点を当てた。
この方法論は、データセット、手動のアノテーションの作成と、Bangla-BERT、bangla-bert-base、distil-BERT、Bert-base-multilingual-casedといったトレーニング済みのトランスフォーマーモデルの使用を含む。
実験の結果、Bangla-BERTは代替モデルを超え、F1スコアは0.8903に達した。
論文 参考訳(メタデータ) (2024-09-25T17:48:59Z) - Rater Cohesion and Quality from a Vicarious Perspective [22.445283423317754]
Vicariousアノテーションは、他の人がデータにアノテートすると考える方法をラウンダーに問うことによって、不一致を断ち切る方法である。
我々はレーダ結束指標を用いて、政治的関係や人種的背景がラテンダーの犯罪に対する認識に与える影響について検討する。
我々は,レーダの品質指標が,個人的および活気あるレベルにわたって,グループ内およびグループ間レーダの凝集にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2024-08-15T20:37:36Z) - Modeling Political Orientation of Social Media Posts: An Extended
Analysis [0.0]
オンラインソーシャルメディア上で政治的分極を特徴付ける機械学習モデルを開発することは、大きな課題である。
これらの課題は主に、注釈付きデータの欠如、ソーシャルメディアデータセットにおけるノイズの存在、膨大な量のデータなど、さまざまな要因に起因している。
本稿では、ソーシャルメディア投稿のラベル付けに、メディアバイアスと投稿コンテンツを活用する2つの方法を紹介する。
ソーシャルメディア投稿の政治的指向を予測することで,現在の機械学習モデルの性能向上を実証する。
論文 参考訳(メタデータ) (2023-11-21T03:34:20Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Metrics for Dataset Demographic Bias: A Case Study on Facial Expression Recognition [4.336779198334903]
人口統計バイアスの最も顕著な種類は、データセットにおける人口統計群の表現における統計的不均衡である。
我々はこれらの指標を分類するための分類法を開発し、適切な指標を選択するための実践的なガイドを提供する。
この論文は、データセットバイアスを緩和し、AIモデルの公正性と正確性を改善するために、AIと関連する分野の研究者に貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-28T11:04:18Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。