論文の概要: Down the Rabbit Hole: Detecting Online Extremism, Radicalisation, and
Politicised Hate Speech
- arxiv url: http://arxiv.org/abs/2301.11579v1
- Date: Fri, 27 Jan 2023 07:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 16:14:53.871198
- Title: Down the Rabbit Hole: Detecting Online Extremism, Radicalisation, and
Politicised Hate Speech
- Title(参考訳): オンライン過激主義、急進化、政治的ヘイトスピーチを検知するRabbit Hole
- Authors: Jarod Govers, Philip Feldman, Aaron Dant, Panos Patros
- Abstract要約: 本研究は,過激な内容を検出するためのテキスト・ネットワーク・ビジュアル・アプローチを初めて横断的に検討する。
我々は、コンセンサス駆動ERHの定義を特定し、特にオセアニア/オーストラリアにおける研究の欠如による解決策を提案する。
我々は、ERH鉱業研究者にとって重要な勧告と、より安全なサイバースペースを実現するための研究者、産業、政府のためのガイドラインによるロードマップの提案を締めくくる。
- 参考スコア(独自算出の注目度): 1.0323063834827415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media is a modern person's digital voice to project and engage with
new ideas and mobilise communities $\unicode{x2013}$ a power shared with
extremists. Given the societal risks of unvetted content-moderating algorithms
for Extremism, Radicalisation, and Hate speech (ERH) detection, responsible
software engineering must understand the who, what, when, where, and why such
models are necessary to protect user safety and free expression. Hence, we
propose and examine the unique research field of ERH context mining to unify
disjoint studies. Specifically, we evaluate the start-to-finish design process
from socio-technical definition-building and dataset collection strategies to
technical algorithm design and performance. Our 2015-2021 51-study Systematic
Literature Review (SLR) provides the first cross-examination of textual,
network, and visual approaches to detecting extremist affiliation, hateful
content, and radicalisation towards groups and movements. We identify
consensus-driven ERH definitions and propose solutions to existing ideological
and geographic biases, particularly due to the lack of research in
Oceania/Australasia. Our hybridised investigation on Natural Language
Processing, Community Detection, and visual-text models demonstrates the
dominating performance of textual transformer-based algorithms. We conclude
with vital recommendations for ERH context mining researchers and propose an
uptake roadmap with guidelines for researchers, industries, and governments to
enable a safer cyberspace.
- Abstract(参考訳): ソーシャルメディアは、新しいアイデアを投影し、コミュニティを動員する現代の人のデジタル音声である。
過激主義、過激化、ヘイトスピーチ(erh)検出のための不必要なコンテンツモデレーションアルゴリズムの社会的リスクを考えると、責任のあるソフトウェアエンジニアリングは、ユーザの安全と表現の自由を守るために、who、what、when、where、そしてなぜそのようなモデルが必要なのかを理解する必要がある。
そこで本研究では, ERHコンテキストマイニングのユニークな研究領域を提案し, 考察する。
具体的には、社会技術的定義構築とデータセット収集戦略から、技術的アルゴリズムの設計と性能までの設計プロセスの評価を行う。
2015-2021 51-study Systematic Literature Review (SLR) は、過激派アフィリエイト、ヘイトフルコンテンツ、グループやムーブメントに対する過激化を検出するためのテキスト、ネットワーク、視覚的アプローチを初めて横断的に分析する。
我々は合意駆動erhの定義を特定し,既存のイデオロギーや地理的バイアスに対する解決策を提案する。
自然言語処理, コミュニティ検出, および視覚テキストモデルに関するハイブリッド研究は, テキストトランスフォーマーに基づくアルゴリズムの優位性を示す。
erhコンテキストマイニング研究者にとって重要な推奨事項をまとめ,より安全なサイバースペースを実現するための研究者,産業,政府のためのガイドラインを提示する。
関連論文リスト
- A Survey of Stance Detection on Social Media: New Directions and Perspectives [50.27382951812502]
姿勢検出は 感情コンピューティングにおける 重要なサブフィールドとして現れました
近年は、効果的な姿勢検出手法の開発に対する研究の関心が高まっている。
本稿では,ソーシャルメディア上での姿勢検出手法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-09-24T03:06:25Z) - Modes of Analyzing Disinformation Narratives With AI/ML/Text Mining to Assist in Mitigating the Weaponization of Social Media [0.8287206589886879]
本稿では,ソーシャルメディアにおける悪意あるコミュニケーションを捕捉・監視するための定量的モードの必要性を明らかにする。
ソーシャル・ネットワークを利用したメッセージの「ウェポン化」が意図的に行われており、州が後援し、私的に運営される政治的指向のエンティティも含む。
FacebookやX/Twitterのような主要プラットフォームにモデレーションを導入しようとする試みにもかかわらず、完全にモデレートされていないスペースを提供する代替ソーシャルネットワークが現在確立されている。
論文 参考訳(メタデータ) (2024-05-25T00:02:14Z) - A Survey of Generative Search and Recommendation in the Era of Large Language Models [125.26354486027408]
ジェネレーティブ検索(検索)とレコメンデーションは、マッチング問題をジェネレーティブな方法で解決することを目的としている。
超知能生成型大規模言語モデルが検索と推薦の新しいパラダイムを生み出した。
論文 参考訳(メタデータ) (2024-04-25T17:58:17Z) - Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models [52.24001776263608]
この包括的調査は、HSモデレーションの最近の歩みを掘り下げている。
大型言語モデル(LLM)と大規模マルチモーダルモデル(LMM)の急成長する役割を強調した。
研究における既存のギャップを、特に表現不足言語や文化の文脈で特定する。
論文 参考訳(メタデータ) (2024-01-30T03:51:44Z) - Combatting Human Trafficking in the Cyberspace: A Natural Language
Processing-Based Methodology to Analyze the Language in Online Advertisements [55.2480439325792]
このプロジェクトは、高度自然言語処理(NLP)技術により、オンラインC2Cマーケットプレースにおける人身売買の急激な問題に取り組む。
我々は、最小限の監督で擬似ラベル付きデータセットを生成する新しい手法を導入し、最先端のNLPモデルをトレーニングするための豊富なリソースとして機能する。
重要な貢献は、Integrated Gradientsを使った解釈可能性フレームワークの実装であり、法執行にとって重要な説明可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-11-22T02:45:01Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Unsupervised Detection of Contextualized Embedding Bias with Application
to Ideology [20.81930455526026]
本研究では,コンテキスト適応型埋め込みにおけるバイアスを検出するための教師なし手法を提案する。
本手法をオンラインディスカッションフォーラムに適用し,提案手法を提案する。
我々の実験は、イデオロギーのサブスペースが抽象的な評価意味論を符号化し、ドナルド・トランプの大統領在任中に政治的左翼スペクトルの変化を反映していることを示唆している。
論文 参考訳(メタデータ) (2022-12-14T23:31:14Z) - Community as a Vague Operator: Epistemological Questions for a Critical
Heuristics of Community Detection Algorithms [0.0]
我々は「コミュニティ」と呼ばれるノードとエッジのパターンとしてのネットワーク科学の数字の性質と結果を分析することを目的としている。
2002年にミシェル・ギルバン(英語版)とマーク・ニューマン(英語版)(英語版)が広めた「コミュニティ」の創始について、異なる系統を網羅的に理解することができる。
我々は,「コミュニティ」が,ソーシャルネットワーキングサイトにおけるエコーチャンバーの生成などの社会的関係を再構築する力で,真の抽象化として機能できると主張している。
論文 参考訳(メタデータ) (2022-10-06T08:46:57Z) - Adversarial Attacks and Defenses for Social Network Text Processing
Applications: Techniques, Challenges and Future Research Directions [7.84287273674205]
ソーシャルメディアアプリケーションにおける敵攻撃と防衛の主なアプローチを概観する。
本研究は,<i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i</i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i>i</i>i>i>i</i>
論文 参考訳(メタデータ) (2021-10-26T19:33:40Z) - A systematic review of Hate Speech automatic detection using Natural
Language Processing [0.45687771576879593]
本稿では,自然言語処理とディープラーニング技術に焦点をあて,本分野の文献を体系的にレビューする。
既存の調査、限界、今後の研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-05-22T21:48:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。