論文の概要: Fear and Loathing on the Frontline: Decoding the Language of Othering by Russia-Ukraine War Bloggers
- arxiv url: http://arxiv.org/abs/2409.13064v1
- Date: Thu, 19 Sep 2024 19:56:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 12:03:17.534681
- Title: Fear and Loathing on the Frontline: Decoding the Language of Othering by Russia-Ukraine War Bloggers
- Title(参考訳): 最前線への恐怖と誓い:ロシアとウクライナの戦争ブロガーによる他国の言葉の解読
- Authors: Patrick Gerard, William Theisen, Tim Weninger, Kristina Lerman,
- Abstract要約: その他に、外集団を内集団と根本的に異なるものとして描写する行為は、しばしばそれらを現実的な脅威とみなすようにエスカレートする。
ドイツやルワンダの少数民族に対するジェノサイドの極端な歴史的例から、米国やヨーロッパの移民を標的とした暴力や修辞学まで、これらのダイナミクスは驚くほど広範囲に及んでいる。
我々のフレームワークは、他者のダイナミクスに関する深い洞察を提供するように設計されており、迅速な適応プロセスと組み合わせて、他者の社会的結束に対する悪影響を緩和するための重要なツールを提供する。
- 参考スコア(独自算出の注目度): 6.632254395574994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Othering, the act of portraying outgroups as fundamentally different from the ingroup, often escalates into framing them as existential threats--fueling intergroup conflict and justifying exclusion and violence. These dynamics are alarmingly pervasive, spanning from the extreme historical examples of genocides against minorities in Germany and Rwanda to the ongoing violence and rhetoric targeting migrants in the US and Europe. While concepts like hate speech and fear speech have been explored in existing literature, they capture only part of this broader and more nuanced dynamic which can often be harder to detect, particularly in online speech and propaganda. To address this challenge, we introduce a novel computational framework that leverages large language models (LLMs) to quantify othering across diverse contexts, extending beyond traditional linguistic indicators of hostility. Applying the model to real-world data from Telegram war bloggers and political discussions on Gab reveals how othering escalates during conflicts, interacts with moral language, and garners significant attention, particularly during periods of crisis. Our framework, designed to offer deeper insights into othering dynamics, combines with a rapid adaptation process to provide essential tools for mitigating othering's adverse impacts on social cohesion.
- Abstract(参考訳): その他に、外集団を内集団と根本的に異なるものとして描写する行為は、しばしばそれを現実的な脅威とみなすようにエスカレートし、集団間の紛争を燃やし、排除と暴力を正当化する。
ドイツやルワンダの少数民族に対するジェノサイドの極端な歴史的例から、米国やヨーロッパの移民を標的とした暴力や修辞学まで、これらのダイナミクスは驚くほど広範囲に及んでいる。
ヘイトスピーチや恐怖スピーチといった概念は、既存の文献で研究されているが、特にオンラインのスピーチやプロパガンダでは、検出が難しい、より広範でニュアンスなダイナミックな部分のみを捉えている。
この課題に対処するために,大規模言語モデル(LLM)を利用した新たな計算フレームワークを導入する。
このモデルをTelegramの戦争ブロガーの実際のデータに適用し、ガブに関する政治的議論は、紛争の間、他者がどのようにエスカレートし、道徳的言語と相互作用し、特に危機の期間中に顕著な注意を払っているかを明らかにする。
我々のフレームワークは、他者のダイナミクスに関する深い洞察を提供するように設計されており、迅速な適応プロセスと組み合わせて、他者の社会的結束に対する悪影響を緩和するための重要なツールを提供する。
関連論文リスト
- Large Language Models Reflect the Ideology of their Creators [73.25935570218375]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
異なるLLMや言語にまたがるイデオロギー的姿勢の顕著な多様性を明らかにする。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - A Community-Centric Perspective for Characterizing and Detecting Anti-Asian Violence-Provoking Speech [31.98433210638392]
暴力を誘発する演説は、パンデミック中の反アジア犯罪の急増に寄与した。
我々は、反アジア暴力を誘発する音声を特徴付けるコードブックを開発し、コミュニティソースのデータセットを収集する。
暴力を誘発する音声の正確かつ確実な検出が課題であることを示す。
論文 参考訳(メタデータ) (2024-07-21T17:27:17Z) - What distinguishes conspiracy from critical narratives? A computational analysis of oppositional discourse [42.0918839418817]
本稿では,陰謀と批判的テキストを区別する,トピックに依存しない新しいアノテーション手法を提案する。
また、Telegramメッセージの高品質なアノテーションを含む多言語XAI-DisInfodemics corpus(英語とスペイン語)にも貢献する。
論文 参考訳(メタデータ) (2024-07-15T14:18:47Z) - Mapping Violence: Developing an Extensive Framework to Build a Bangla Sectarian Expression Dataset from Social Media Interactions [1.2618555186247333]
オンラインバングラコンテンツにおける共犯マーカーの自動検出のための,初の包括的枠組みを開発した。
私たちのワークフローでは、社会科学者、言語学者、心理学者の洞察を取り入れた7段階の専門家アノテーションプロセスを導入しています。
このデータセットを用いてデータ統計とベンチマーク性能を提示することにより、非コミュニケーション暴力のカテゴリ以外では、リグリゴ・コミュニティ暴力は特にバングラ文字で広く普及していると判断した。
論文 参考訳(メタデータ) (2024-04-17T21:09:13Z) - A Longitudinal Study of Italian and French Reddit Conversations Around
the Russian Invasion of Ukraine [1.002138130221506]
この研究は、最大のイタリアとフランスのRedditコミュニティ内での会話を詳しく調べ、特にロシアによるウクライナ侵攻がオンラインの対話にどう影響したかを調べた。
モデレーションアクティビティのパターンを記述するために、300万以上のポスト(コメントや投稿など)を持つデータセットを使用します。
我々は、戦争の最初の1ヶ月でより活発になったモデレーターの行動の変化を発見した。
論文 参考訳(メタデータ) (2024-02-07T16:15:52Z) - Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models [52.24001776263608]
この包括的調査は、HSモデレーションの最近の歩みを掘り下げている。
大型言語モデル(LLM)と大規模マルチモーダルモデル(LMM)の急成長する役割を強調した。
研究における既存のギャップを、特に表現不足言語や文化の文脈で特定する。
論文 参考訳(メタデータ) (2024-01-30T03:51:44Z) - Visual Adversarial Examples Jailbreak Aligned Large Language Models [66.53468356460365]
視覚入力の連続的かつ高次元的な性質は、敵対的攻撃に対する弱いリンクであることを示す。
我々は、視力統合されたLLMの安全ガードレールを回避するために、視覚的敵の例を利用する。
本研究は,マルチモダリティの追求に伴う敵のエスカレーションリスクを浮き彫りにする。
論文 参考訳(メタデータ) (2023-06-22T22:13:03Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Fragments of the Past: Curating Peer Support with Perpetrators of
Domestic Violence [88.37416552778178]
我々は,過去フラグメントの設計と展開において,6人の支援労働者と18人の加害者とともに働いた10ヶ月の研究を報告した。
私たちは、暴力から脱却した経験をデジタルで強化された成果物、すなわち「フラグメント」を作ることが、メッセージのモチベーションと仲間間のラッピングをいかに翻訳するかを共有します。
これらの知見は、挑戦的な人口を持つ将来のネットワーク設計の実践的考察の基礎となる。
論文 参考訳(メタデータ) (2021-07-09T22:57:43Z) - Reducing Unintended Identity Bias in Russian Hate Speech Detection [0.21485350418225244]
本稿では、ヘイトスピーチをロシア語で分類する取り組みについて述べる。
本研究では,言語モデルを用いた学習データの生成など,意図しないバイアスを減らすためのシンプルな手法を提案する。
論文 参考訳(メタデータ) (2020-10-22T12:54:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。