論文の概要: Empowering NGOs in Countering Online Hate Messages
- arxiv url: http://arxiv.org/abs/2107.02472v1
- Date: Tue, 6 Jul 2021 08:36:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 14:01:19.334665
- Title: Empowering NGOs in Countering Online Hate Messages
- Title(参考訳): オンラインヘイトメッセージ対策におけるNGOの活用
- Authors: Yi-Ling Chung, Serra Sinem Tekiroglu, Sara Tonelli, Marco Guerini
- Abstract要約: 我々は、NGOオペレーターがソーシャルメディアデータの監視・分析に利用できる新しいICTプラットフォームと、反ナラティブな提案ツールを導入する。
質的,定量的な評価により,3カ国で100以上のNGO演算子を用いてプラットフォームを検証した。
その結果,NGOは提案ツールによるプラットフォームソリューションを好んでおり,反物語作成に必要な時間も大幅に減少することがわかった。
- 参考スコア(独自算出の注目度): 14.767716319266997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Studies on online hate speech have mostly focused on the automated detection
of harmful messages. Little attention has been devoted so far to the
development of effective strategies to fight hate speech, in particular through
the creation of counter-messages. While existing manual scrutiny and
intervention strategies are time-consuming and not scalable, advances in
natural language processing have the potential to provide a systematic approach
to hatred management. In this paper, we introduce a novel ICT platform that NGO
operators can use to monitor and analyze social media data, along with a
counter-narrative suggestion tool. Our platform aims at increasing the
efficiency and effectiveness of operators' activities against islamophobia. We
test the platform with more than one hundred NGO operators in three countries
through qualitative and quantitative evaluation. Results show that NGOs favor
the platform solution with the suggestion tool, and that the time required to
produce counter-narratives significantly decreases.
- Abstract(参考訳): オンラインヘイトスピーチの研究は、主に有害メッセージの自動検出に焦点を当てている。
ヘイトスピーチと戦う効果的な戦略の開発、特にカウンターメッセージの作成にはほとんど関心が向けられていない。
既存の手作業による精査と介入戦略は時間を要するが、自然言語処理の進歩は、憎しみ管理に対する体系的なアプローチを提供する可能性がある。
本稿では、NGOオペレーターがソーシャルメディアデータを監視・分析するために利用できる新しいICTプラットフォームと、反ナラティブな提案ツールを紹介する。
当社のプラットフォームは、イスラモフォビアに対するオペレーターの活動の効率性と効果を高めることを目的としている。
質的,定量的評価により,3カ国で100以上のNGO演算子を用いてプラットフォームをテストする。
その結果,NGOは提案ツールによるプラットフォームソリューションを好んでおり,反物語作成に必要な時間も大幅に減少することがわかった。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - AggregHate: An Efficient Aggregative Approach for the Detection of Hatemongers on Social Platforms [4.649475179575046]
ヘイト・モンガーの検出には,ヘイトフルテキストやユーザ・アクティビティ,ユーザ・ネットワークを考慮し,マルチモーダル・アグリゲーティブ・アプローチを検討する。
本手法は, コーデックメッセージの分類, ドッグホイストリング, 人種的ガスライティングの改善, 介入対策の通知に有効である。
論文 参考訳(メタデータ) (2024-09-22T14:29:49Z) - Compromising Embodied Agents with Contextual Backdoor Attacks [69.71630408822767]
大型言語モデル(LLM)は、エンボディドインテリジェンスの発展に変化をもたらした。
本稿では,このプロセスにおけるバックドアセキュリティの重大な脅威を明らかにする。
ほんの少しの文脈的デモンストレーションを毒殺しただけで、攻撃者はブラックボックスLDMの文脈的環境を隠蔽することができる。
論文 参考訳(メタデータ) (2024-08-06T01:20:12Z) - Demarked: A Strategy for Enhanced Abusive Speech Moderation through Counterspeech, Detoxification, and Message Management [71.99446449877038]
本研究では, 重度尺度, (ii) ターゲットの存在, (iii) 文脈尺度, (iv) 法的尺度の4つの側面を基礎として, より包括的手法であるDemarcation scoreing abusive speechを提案する。
本研究は,ネット上での虐待的スピーチを効果的に解決するための今後の戦略を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2024-06-27T21:45:33Z) - Understanding Counterspeech for Online Harm Mitigation [12.104301755723542]
Counterspeechは、憎悪の犯人に挑戦し、虐待の標的への支援を示すことによって、憎悪の言葉に対する直接の反論を提供する。
コンテンツモデレーションやデプラットフォームといった、より論争的な手段に代わる、有望な代替手段を提供する。
本稿では,社会科学における反音声研究を体系的にレビューし,自動対音声生成における方法論と知見をコンピュータ科学の取り組みと比較する。
論文 参考訳(メタデータ) (2023-07-01T20:54:01Z) - Tackling Hate Speech in Low-resource Languages with Context Experts [7.5217405965075095]
本稿では,ミャンマーにおけるヘイトスピーチの自動検出に関する遠隔研究から得られた知見を報告する。
この問題に効果的に対処するには、コンテキストエキスパートの知識と機械学習ツールを組み合わせたコミュニティベースのアプローチが必要であると我々は主張する。
論文 参考訳(メタデータ) (2023-03-29T16:24:22Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Towards A Multi-agent System for Online Hate Speech Detection [11.843799418046666]
本論文では,TwitterやFacebookなどのオンラインソーシャルメディアプラットフォームにおけるヘイトスピーチの存在を検出するマルチエージェントシステムを提案する。
テキスト処理とインエイジ処理のチャネルをコーディネートする深層学習技術を用いた新しいフレームワークを紹介します。
論文 参考訳(メタデータ) (2021-05-03T19:06:42Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - A Survey on Computational Propaganda Detection [31.42480765785039]
プロパガンダのキャンペーンは、特定の議題を進めるために人々のマインドセットに影響を与えることを目的としている。
インターネットの匿名性、ソーシャルネットワークのマイクロプロファイリング能力、およびアカウントの協調ネットワークの自動作成と管理を容易にする。
論文 参考訳(メタデータ) (2020-07-15T22:25:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。